首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏iOSDevLog

    ARKit

    ARWorld Tracking Configuration提供这种体验:ARKit映射和跟踪用户所居住的真实世界空间,并将其与坐标空间相匹配,以便您放置虚拟内容。 您还可以省略摄像机视图并使用ARKit面部表情数据为虚拟角色设置动画,如iMessage的Animoji应用程序中所示。 了解ARKit中的世界跟踪 发现支持概念,功能和最佳实践,以构建出色的AR体验。 使用ARKit实时使用Vision 管理Vision资源以有效执行Core ML图像分类器,并使用SpriteKit在AR中显示图像分类器输出。 原文:https://developer.apple.com/documentation/arkit/

    3K20发布于 2018-08-22
  • 来自专栏音视频直播技术专家

    ARKit 初探

    今年7月Apple推出了AR工具ARKit,着实闪着了大家的眼睛。从目前的评测可以知道 ARKit已经非常成熟,完全可以进行商用了。 在iOS中,增强现实由ARKit和渲染两部分组成。 今天我们就来详细的了解一下 ARKit,看看 Apple 为我们提供了怎样强大的工具,可以让我们迅速的构建一个AR应用程序。 在讲解我们的 AR 程序之前,我们先要了解几个ARKit的基本概念。 但 ARKit 会利用视觉惯性里程计,综合图片信息和设备运动传感器来估计用户转向的位置。因此 ARKit 在追踪方面非常强大。 顾名思意,就是当用户点击屏幕时,ARKit 将点击屏幕的2D空间位置转换为ARKit 通过 ARCamera 捕获到的视频帧的 3D 空间位置。并在这个位置检测是否有平面。 除了上面这几个概念外,我们还需要知道ARKit提供的一些基本知识。 ARSession ARSession 是 ARkit 的核心。它是连接ARCamera与ARACNView之间的桥梁。

    3K20发布于 2020-04-01
  • 来自专栏Sign

    关于ARkit

    之前有提过,ARKit由于刚出来,而且有着一定的的门槛,所以暂时还没有普及。 大部分AR是这样的,在已经成熟的加入ARkit的功能,然后,就没有然后了。 ? 这样的效果,就算说是基于他们所处于的平面上的一张图片进行识别的效果,又有谁会觉得奇怪呢? 相对而言,我更喜欢ARkit所展示出来的另一个效果:『空间检测』。 ? 不过缺少了酷炫的模型,这个逆天的能力反而没有太让人产生惊艳的感觉。 其他的AR效果就不贴图了。 前面提到的都是ios的ARkit,不过对web端来说,谷歌才是大佬,苹果简直…… 『你听说过IE6吗?』 『啊?你说苹果是移动端的IE6?』 『没有,我没这么说。』

    94280发布于 2018-04-18
  • 来自专栏向治洪

    ARKit 简介

    ARKit 简介 苹果在AR一直布局VR,最近的苹果开发者大会上,果家终于放出大招:iOS移动端ARKit平台以及VR兼容新桌面操作系统macOS High Sierra。 那么,相比之下,苹果放出的ARKit会有什么新意呢? ARKit主要有三层核心技术技术: 第一层:快速稳定的世界定位 ,包括实时运算,运动定位,无需预设(软硬件)。 ? ARKit实战 在开发ARKit之前,需要准备相应的软硬件环境: 软件环境:macOS10.13 、 Xcode 9 ,相关软件可以到开发者官网下载。 另外让开发者们惊喜的就是ARKit对 Unity3D和Unreal也是全线支持。我们来看看ARKit的架构图: ? 而ARKit的核心就是ARSession,下面我们将一步步实现一个简单的ARKit场景。

    3.3K60发布于 2018-02-06
  • 来自专栏iOSDevLog

    ARKit介绍

    Apple在WWDC17上宣布了一个名为ARKit的新iOS框架。它是一个“允许您轻松为iPhone和iPad创建无与伦比的增强现实体验”的框架。 实现与Pokemon Go具有相同交互性的应用程序并不容易,这就是为什么我认为ARKit会有所作为。 通过这个新框架,通过为iOS提供本机AR支持,开发人员可以更方便地访问AR。 ARKit以卓越的性能完成所有这一切,并且有很好的文档记录。 需要一些想法才能使用ARKit?您可以查看madewitharkit,并通过在您的应用上加入此框架来了解可能实现的目标。 ,所以我决定使用ARKit创建自己的测量应用程序。 我开始观看介绍ARKit:来自WWDC17的iOS增强现实视频。然后我阅读文档并使用演示应用程序(在增强现实中放置对象)。 在苹果公司的ARKit演示实现了一个方形指示器,我认为它可以使用该sceneView.debugOptions属性,但事实并非如此。 ?

    3.3K20发布于 2018-08-22
  • 来自专栏iOSDevLog

    ARKit和CoreLocation

    image.png 演示代码 ARKit和CoreLocation:第一部分 ARKit和CoreLocation:第二部分 ARKit和CoreLocation:第三部分 数学与坐标之间的计算 如果我们为商用客机设计可能存在问题的导航系统,但距离的长度不足以对ARKit演示产生影响。 定义 方位角:是球面坐标系的角度测量。 return self.calculateBearing(to: coordinate).toDegrees() } } 获得距离坐标 image.png 虽然MKRoute为我们提供了构建ARKit /blob/master/ARKit%2BCoreLocation/Source/CLLocation%2BExtensions.swift func coordinate(with 由于我们只需要MKRouteStep指令中的文本,我们应该创建方法: import SceneKit import ARKit import CoreLocation class BaseNode:

    1.8K20发布于 2018-09-20
  • 来自专栏郭艺帆的专栏

    ARKit 进阶:材质

    本文主要介绍了3D渲染中材质的相关知识,包括材质的通用属性、材质球结构、材质实例、材质属性、表面着色、光照模型和材质配置等。同时,也介绍了在渲染过程中,如何通过设置材质属性、光照模型和材质配置等,来实现模型的逼真渲染。

    4K01发布于 2017-09-27
  • 来自专栏范传康的专栏

    使用ARKit开发AR游戏-基础篇:ARKit入门篇

    arkit2.jpg arkit3.jpg arkit4.jpg 移动设备和SDK方案 由移动硬件相机驱动,提供一个“窗口”进入。可以看到现实世界与AR的对象。 arkit5.jpg arkit6.jpg arkit7.jpg ARKit概述          ARKit是Apple的基于自身硬件的AR解决方案,有别于传统(以Vuforia为代表)基于单纯视觉测距方案 arkit8.jpg Frame是什么?          ARKit的运行原理基于Frame概念。运行的AR会话连续从设备摄像机捕获视频帧(Frame)。 对于每一帧,ARKit会将图像与来自设备的运动感应硬件的数据一起分析,以估计设备的现实位置和方向。ARKit以ARFrame对象的形式提供跟踪信息和成像参数。 arkit9.jpg 主要功能:ARKit的场景理解系统的一些功能 平面寻找 使用稀疏点云提取和创建平面。

    5K51发布于 2018-05-29
  • 来自专栏浅探ARKit

    初识ARKit iOS卷

    *** #SCNNode 节点,它可以是在美工拿过来的模型(不规则),也可以是你自己用代码创建的模型(常常是规则的) *** #ARKit 这个框架主要是管理相机和相机铺抓到的画面 给SceneKit提供坐标和角度 All rights reserved. // #import "ViewController.h" //导入框架 #import <ARKit/ARKit.h> #import <SceneKit

    1.9K180发布于 2018-05-04
  • 来自专栏郭艺帆的专栏

    ARKit 进阶:物理世界

    写在前面 ARKit的渲染能力是由其他框架实现的,除了苹果的SceneKit, Unity3D、UE, 或者其他自定义的OpenGL、Metal渲染引擎都可以与ARKit相结合。 scene test SceneKit与ARKit中共有以下几种scene test,用以观察世界中的物体关系,作用类似UIKit的 hitTest: 方法。

    3.2K70发布于 2018-01-15
  • 来自专栏星河造梦坊专栏

    ARKit 1.0☀️ 四、是否支持ARKit、启动相机、开启检测平面

    是否支持ARKit 因部分设备支持ARKit,部分设备不支持,因此程序需判断该设备是否支持ARKit,在执行后续操作 1、Unity切换IOS平台,导入SDK,新建scene 2、新建Skode_Test XCode需像上篇博客一样进行配置:配置地址(自第5步开始) 若用户手机不支持ARKit,则不希望用户下载该应用 该步在XCode进行配置 点击设计树中的Info.plist,为其添加下方红色框中的一栏 Camera添加Unity AR Video Unity AR Video的Clear Material赋值为YUVMaterial,该脚本功能是将摄像头拍摄到的画面渲染出来 测试是使用ARKit remote App进行测试(ARKit remote App打包方法),观看是否能将手机拍到的画面渲染到Unity屏幕 3、为Unity场景添加ARKitRemoteConnection预制体 4、 的功能,所以就不需要再做检测手机是否支持ARKit的这份工作 2、添加平面:Unity添加空物体,改名GeneratePlane,位置归零,为其添加UnityARGeneratePlane脚本

    47210编辑于 2024-08-15
  • 来自专栏腾讯Bugly的专栏

    《 iPhone X ARKit Face Tracking 》

    有幸去Cupertino苹果总部参加了iPhone X的封闭开发,本文主要分享一下iPhone X上使用ARKit进行人脸追踪及3D建模的相关内容。 然而如果你的app确定ARKit是其核心功能,在info.plist里将ARKit添加到UIRequiredDeviceCapabilities里可以确保你的app只在支持ARKit的设备上可用。 比较遗憾的是,当前版本只支持单人脸识别,未来如果ARKit提供多人脸识别后开发者应该也能较快的进行版本升级。 创建人脸AR体验 以上介绍了一下使用ARKit Face Tracking所需要了解的新增接口,下面来详细说明如何搭建一个app以完成人脸AR的真实体验。 除了人脸的空间位置信息和几何信息,ARKit还提供了十分精细的面部表情形变参数,用来做类似张嘴触发是完全没问题的,我们还可以用其实现一些有趣的效果。

    4.2K00发布于 2017-11-20
  • 来自专栏浅探ARKit

    ARKit制作红包雨效果

    新年快到了!给大家献上一个3D红包雨效果! #####思路: 1.用scenekit来创建红包模型 先创建一个长方体,此长方体厚度很薄 然后设置模型的contents为红包的图片 2.用仿真框架让红包掉下来 3.多设置几个源头 但正上方不要设置 否则屏幕经常会给一个红包遮住 #####关键性代码: geometerNode.physicsBody = [SCNPhysicsBody bodyWithType:SCNPhysicsBodyTypeDynamic shape:nil]; //设置力

    2K90发布于 2018-05-07
  • 来自专栏每日一篇技术文章

    ARKit 到底怎么实现的

    experiences in your app or game 集成iOS设备摄像头和运动功能,在你的应用程序或游戏中产生增强现实体验 我写过一个小实例100行代码实现手机AR,有兴趣的可以去看看,这个demo 也是ARKit 的原理介绍 ARKit 重要的类介绍 ARSCNView 显示3D 内容的视图 继承SCNView ,SCNView 继承UIView,所以这个视图可以是任何UIView的子视图,所以你可以像使用UIView 对于每一帧,ARkit分析图像,通过从装置的运动传感硬件来判断设备的实际位置数据 ARCamera 代表 AR会话中捕获的视频帧的摄像机位置和成像特性的信息 ARSessionConfiguration 49751CA2-3CC2-487C-80BD-383C17358113.png 第二步 在ViewController 里面导入两个框架 import SceneKit import ARKit 第三步 部分的内容比较简单,如果想要学习AR 开发, 难点不是ARKit 框架,而是苹果在 2014 年推出3D游戏引擎框架SceneKit,这个框架至今没有被重用,但是相信AR 会让这个框架火起来,在年初我已经将

    1.4K10发布于 2018-09-14
  • 来自专栏腾讯Bugly的专栏

    《iPhone X ARKit Face Tracking》

    有幸去Cupertino苹果总部参加了iPhone X的封闭开发,本文主要分享一下iPhone X上使用ARKit进行人脸追踪及3D建模的相关内容。 然而如果你的app确定ARKit是其核心功能,在info.plist里将ARKit添加到UIRequiredDeviceCapabilities里可以确保你的app只在支持ARKit的设备上可用。 比较遗憾的是,当前版本只支持单人脸识别,未来如果ARKit提供多人脸识别后开发者应该也能较快的进行版本升级。 创建人脸AR体验 以上介绍了一下使用ARKit Face Tracking所需要了解的新增接口,下面来详细说明如何搭建一个app以完成人脸AR的真实体验。 除了人脸的空间位置信息和几何信息,ARKit还提供了十分精细的面部表情形变参数,用来做类似张嘴触发是完全没问题的,我们还可以用其实现一些有趣的效果。

    2.4K30发布于 2018-03-23
  • 来自专栏MelonTeam专栏

    ARKit浅析V1.0

    一、ARKit介绍 苹果公司在WWDC2017 上发布了ARKit,开发者可以使用这套框架在iPhone和iPad上创建属于自己的AR体验。 Xcode9对Mac系统版本有要求) 二、ARKit工作原理和流程 首先需要说明的是,ARKit并不是一个能够独立运行的框架,其依赖SceneKit框架。 简单点说,ARKit框架主要提供相机相关的工作,主要负责捕捉和分析现实世界。而展示虚拟物体部分,则是依赖SceneKit提供的能力。如果没有SceneKit,那ARKit只是一个相机而已。 从上图可以简单的看出ARKit的工作原理,ARKit框架提供相机能力,在手机上捕捉并构建现实世界。SceneKit提供模型能力,在手机的“现实世界”中添加虚拟物体。 三、ARKit API介绍 ARKit框架的API其实并不多。下图就是整个ARKit框架提供的类。下面就这几个主要的类(介绍主要的属性)做一个简单的说明。 ?

    2.2K50发布于 2018-01-04
  • 来自专栏星河造梦坊专栏

    ARKit 1.0☀️ 三、ARKit Remote的使用(手机App与Unity的互联)

    ARKit Remote目的 因为Unity不是手机,无法使用ARKit功能,所以做出ARKit Remote App,装到苹果手机,用数据线连接到电脑,连接到Unity。 Unity先做出该App装到手机,通过该App,可以远程测试Unity做的其他使用了ARKit的内容。 ARKit Remote的方法 1、Unity2018切换至IOS平台,导入ARKit SDK,打开SDK中ARKit Remote文件夹下的场景UnityARKitRemote 2、Build Settings

    34110编辑于 2024-08-15
  • 来自专栏iOSDevLog

    ARKit 教学:如何搭配SceneKit来建立一个简单的ARKit Demo设定ARKit SceneKit View从ARSCNView移除物件

    目标 本教学主要会开发一个ARkit Demo App,并应用SceneKit来协助你熟悉基础的ARKit。 为了测试你的ARKit App,你得需要一个可兼容Apple的ARkit的装置,建议有Apple A9处理器以上等级的装置。 现在请确认你已具备上述需求,并准备开始进行,以下是我将会带你走过: 建立一个新的ARKit apps项目 设定ARKit SceneKit View 将ARSCNView与View Controller 让我们能拥抱ARKit。 好的! 我希望你享受本篇ARKit的介绍,我也期待你会建构出属于你的ARKit App。 关于完整的范例项目,你可以在GitHub找到。

    2.2K20发布于 2018-08-22
  • 来自专栏浅探ARKit

    ARKit制作传送门

    参考Minecode ####效果: 1.从外面看不到模型里面的场景 2.在场景里只可以透过门来看到外面的场景 ####实现思路: 1.先用平面识别在一个平面上放1个门 整个场景做门的子物体 先隐藏起来 给门和摄像机加个触发器 当他们的触发器产生碰撞就显示子物体出来 2.把模型加载出来 然后用透明的面去遮挡你想隐藏的节点 这个方法比第一个方法简单一点 因为加触发器比较麻烦 所以我采取的第二种方法 第一种方法也可以实现 只是代码比较累赘 ####主要代码: //设置渲染顺序 优先级是从小

    1.6K100发布于 2018-05-07
  • 来自专栏算法与编程之美

    ARkit|一起“宜家”吧!!!

    视频简介 为了更好的实现AR增强现实开发,苹果公司推出“ARkit”让AR体验更有趣! 在ARkit的技术实现,主要依靠 1.通过摄像头寻找水平面。 2.3D模型与3D场景的交互。 最初认识到AR kit 技术,是在苹果系统升级时,出现了“测距仪”这个新的功能。 AR kit~ 本视频以学校走廊为背景,体验“ARkit”!!!

    45420发布于 2019-07-17
领券