我正在使用CIFaceFeature来检测眼睛的坐标。通过眼球坐标,我将眉毛图像添加到脸部。但这对我来说是静态的。它并不适合所有人的脸。有什么方法可以测量眼睛的宽度吗?
for (CIFaceFeature *faceFeature in features) {
// Draw a highlight around the subject's face.
CGRect faceRect = faceFeature.bounds;
CGPoint leftPoint = [self leftEyePositionForImage:self.imageView.image inView:self.imageView.bounds.size];
CGPoint rightPoint = [self rightEyePositionForImage:self.imageView.image inView:self.imageView.bounds.size];
}我的代码类似于上面。在得到眼睛的中心点后,我在中心点上添加了UIImageview。
发布于 2015-02-21 17:32:43
我在我的应用程序中使用了这个。方法是使用已知大小的参考面,并使用毕达哥拉斯定理(a2 + b2 = c2)获得眼睛之间的距离。
一旦你知道N的距离需要一个特定大小的图像,你就可以确定如果距离是1.5倍,那么眉毛图像也需要增加这个大小。
您还可以通过在眼点上使用atan2来获得眉毛的旋转,从而获得面部的角度。
https://stackoverflow.com/questions/28643941
复制相似问题