首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >IOS人脸检测-检测眼宽

IOS人脸检测-检测眼宽
EN

Stack Overflow用户
提问于 2015-02-21 16:56:50
回答 1查看 728关注 0票数 0

我正在使用CIFaceFeature来检测眼睛的坐标。通过眼球坐标,我将眉毛图像添加到脸部。但这对我来说是静态的。它并不适合所有人的脸。有什么方法可以测量眼睛的宽度吗?

代码语言:javascript
复制
for (CIFaceFeature *faceFeature in features) {
            // Draw a highlight around the subject's face.

            CGRect faceRect = faceFeature.bounds;
CGPoint leftPoint = [self leftEyePositionForImage:self.imageView.image inView:self.imageView.bounds.size];
            CGPoint rightPoint = [self rightEyePositionForImage:self.imageView.image inView:self.imageView.bounds.size];
}

我的代码类似于上面。在得到眼睛的中心点后,我在中心点上添加了UIImageview。

EN

回答 1

Stack Overflow用户

发布于 2015-02-21 17:32:43

我在我的应用程序中使用了这个。方法是使用已知大小的参考面,并使用毕达哥拉斯定理(a2 + b2 = c2)获得眼睛之间的距离。

一旦你知道N的距离需要一个特定大小的图像,你就可以确定如果距离是1.5倍,那么眉毛图像也需要增加这个大小。

您还可以通过在眼点上使用atan2来获得眉毛的旋转,从而获得面部的角度。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/28643941

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档