首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Flutter18

    『Flutter』手势交互

    1.前言经过上篇文章的介绍,已经将跨页面之间跳转的时候传参的方式介绍给大家了,本篇文章将给大家介绍如何在 Flutter 中使用手势交互。 2.手势交互2.1.简介Flutter中的手势系统是一个强大且灵活的方式,允许开发者捕获并响应触摸屏上的各种用户交互。2.2.常见手势类型与常用属性Tap(点击):onTap: 当用户轻触屏幕时触发。

    1.9K52编辑于 2024-01-24
  • 来自专栏Android、鸿蒙开发

    Android 触摸屏交互手势监听

    前言 2020年,智能手机大行其道,相信不会还有人用着老式的按键手机了吧,而智能手机最大的交互就是手机屏幕,其次的就是音量操作、生物识别(指纹+人脸+瞳孔)、说白了用的最多的是手机的屏幕,屏幕与用户之前进行交互 有人说我可以用语音去打开,但是你没有想过语音其实只是帮你执行了点击,在手机上不管是玩游戏还是看电影或者是搞学习,都是要使用手机屏幕的,所以你知道屏幕交互有多么重要吗? 正文 屏幕的交互当然首先是触摸,说道触摸就是有一个手势监听,这个是Google起的名字,你不用手难道用脚吗? 下面可以新建一个项目,在MainActivity中实现两个监听 ? Override public boolean onDoubleTapEvent(MotionEvent e) { return false; } 在Android系统中,每一次手势交互都会依照以下顺序执行 在Android中,是由GestureDetector类来负责手势的检测,每一个GestureDetector类的实例都代表一个手势监听器。

    2.1K30发布于 2020-09-25
  • 摄像头如何“看懂”你的手势手势识别实现新人机交互

    随着技术不断发展,我们与机器的交互方式也在不断演进。早期的机器依赖体力操作和机械控制,而现代计算机技术则带来了触摸屏和语音输入。如今,手势识别已成为人机交互的新方向,它让我们能用自然动作来操控设备。 探索不同类型的手势与人机交互在深入了解计算机视觉在手势识别中的作用之前,我们先来看看系统通常能识别哪些类型的手势。大多数手势可分为两类:静态手势和动态手势。 最后,识别出的手势会被映射到界面上的某个操作,例如滚动、缩放、选择项目、调节音量,或控制AR/VR交互。 基于视觉的手势识别的应用接下来,我们看看手势识别在实际应用场景中是如何运作的。汽车信息娱乐系统的基于手势交互手势识别开始出现在智能汽车界面中,特别是在信息娱乐系统里。 游戏中的手势驱动交互在游戏和沉浸式体验中,基于手势的控制正在改变人们与虚拟世界的交互方式。玩家不再仅仅依赖手柄或摇杆,而是可以使用自然的手部动作来导航菜单、拾取虚拟物品、操控角色或触发游戏内的动作。

    46900编辑于 2025-12-30
  • 来自专栏韩曙亮的移动开发专栏

    【Flutter】Flutter 手势交互 ( 跟随手指运动的小球 )

    文章目录 一、Flutter 手势 - 跟随手指运动的小球 三、完整代码示例 三、相关资源 一、Flutter 手势 - 跟随手指运动的小球 ---- 设置小球坐标变量 : 其中 currentX 是距离左侧边界的距离 才能得到准确的坐标值 ; 在回调方法中调用 setState 方法 , 修改成员变量 currentX 和 currentY , 从而修改 Positioned 组件的位置 , 以达到小球移动的目的 ; /// 手势检测组件 e.delta.dy; }); }, ) 代码示例 : // 小球 Positioned( /// 当前位置 left: currentX, top: currentY, /// 手势检测组件 // 设置主体组件 home: Scaffold( // 设置标题栏 appBar: AppBar( title: Text("手势检测 Colors.green, ), child: Text( "手势检测

    84600编辑于 2023-03-28
  • 来自专栏VRPinea

    手势交互+多人协作,Nreal积极布局MR内容生态

    而在XR领域中,手势识别的输入方式,被认为是最自然的输入和交互方式。 Nreal目前在不增加额外硬件模块的基础上,与海外手势交互应用公司Clay AIR合作,将其手势应用引入到Nreal Light上来。 Clay AIR在2018年曾经与高通合作,为旗下OEM产品提供关键交互技术。这也是目前XR头显领域中,为数不多的提供标准化手势识别的公司。 据了解,通过Clay的软件算法,已经可以识别包括拿、捏、抓、轻扫等超过30种用户的手势动作,从而操纵虚拟物体,与MR环境进行更加直观的交互。 Nreal认为,提供不同的交互方式让开发者和用户进行选择,才是一个更成熟的硬件开发企业的职责。

    1.7K30发布于 2020-03-10
  • 手势交互新年倒计时网页(mediapipe附源码)

    asTHREEfrom'three';import{OrbitControls}from'three/addons/controls/OrbitControls.js';importGUIfrom'lil-gui';//---UI交互逻辑

    45910编辑于 2025-12-30
  • 来自专栏ios技术安装

    Flutter 和 iOS 之间的 Battle:手势交互谁才是老大?

    跨平台框架都会面对和原生平台沟通的问题,Flutter 也不例外,在实际工程落地的过程中经常会碰到手势识别交互的问题。 Flutter 进阶:处理 iOS 手势冲突 背景 客户端日常开发中,手势识别是交互设计中不可或缺的功能,为此 Flutter 和 iOS 都提供了一套手势系统,同时,为了让 Flutter 页面融入进 我们期望的交互效果是:当用户在划动横向列表时,全屏手势后退效果应该是不生效的才对。 问题的根本原因是全屏右划后退手势和 FlutterView 都在处理右划触摸事件,而绝大多数交互场景,我们都应该遵循这样的原则:父控件和子控件都能处理某个手势时,应该优先让子控件处理,而不是父子都处理。 实现这样的自定义手势需要满足两个条件: 要能持续接收触摸事件,因为有些手势判断自己是否能处理需要花费一定时间(比如长按手势),如果自定义手势很快的就确定了自己能或不能接收触摸事件,则可能忽略了长按类的手势

    2.5K30发布于 2020-09-15
  • 来自专栏最新医学影像技术

    Hololens开发学习(三)——凝视,手势和语音交互操作实现

    这一篇主要讲解凝视,手势和语音交互的实现。 1、打开Unity,新建项目名为HoloProject,如图所示。 ? 4、准备工作完成后,下面我将分别实现凝视,手势和语音交互的案例实现。我们在面板中新建一个3D Object的Cube,设置Position参数中的z为5。 ? ? 5、我先实现凝视交互——当视线在Cube上时,Cube颜色变成红色。首先,新建一个C#文件,取名为ColorShowAction.cs。如图所示。 ? 6、接下来我主要实现两种手势交互即导航手势和操作手势,分别来实现旋转和移动功能。跟刚才一样,新建两个C#文件分别是MoveAction和RotateAction。双击,填写相应代码。如图所示。 7、最后通过语音来实现Cube放大和缩小交互。新建一个ZoomAction.cs,打开并填写代码,如图所示。然后加入到Cube上。 ?

    1.9K50发布于 2020-06-29
  • 来自专栏直播工具

    直播手势特效的直播实时交互技术的实现逻辑

    一、场景痛点从技术角度分析,直播推流场景中存在以下核心痛点:实时交互的低延时要求:主播手势动作到特效呈现的延迟需控制在100ms以内,否则会破坏用户的交互感知,这对计算机视觉算法的推理速度和渲染管线的效率提出了极高要求 开播工具通常需要以下运行库的支持:VisualC++Redistributable(提供C++运行环境)DirectX11/12(用于视频采集和GPU渲染).NETFramework(用于UI界面和系统交互 ,以降低后续处理的计算量手势识别与分析:将预处理后的视频帧输入到计算机视觉模型中,进行人脸检测和手势关键点提取对提取的关键点进行特征分析,判断当前手势类型特效渲染与叠加:根据识别到的手势类型,调用对应的 实现并行计算使用多线程技术处理视频采集、预处理和编码等任务,充分利用CPU多核性能【AI生成图片提示词】:展示CPU和GPU并行计算的示意图,左侧为CPU的多线程处理,右侧为GPU的多流处理,中间为数据交互通道 低延时传输:腾讯云的TRTC服务提供了低至100ms的端到端延时,确保手势识别结果和特效渲染的实时性,提升用户的交互体验。五、参考资料腾讯云实时音视频:产品介绍YY开播工具:官网

    29010编辑于 2025-11-21
  • 来自专栏镁客网

    解读手势识别,或许不是VR交互的万能工具

    但是如果想要在VR中达到更加自然的交互和沉浸体验,摆脱外设的手势识别必然是未来发展的一个大方向。 手势识别技术的发展 手势识别技术的发展,可以粗略分为两个阶段:二维手势识别以及三维手势识别。 手势识别不是VR万能的交互方式 VR的最大特点就是沉浸感和交互性,摆脱外设的手势识别可以加强体验的沉浸感。在虚拟世界里,你可以完全像真实世界中一样去使用你的双手。 问题是对于VR来说,交互并不具备通用性和唯一性的特点。举个例子,如果是一些简单的拾取类的操作,手势识别是非常自然的交互方式。 从这个角度来看,手势识别并不是VR万能的交互方式。 但是随着VR硬件技术的不断发展成熟,以及内容开发上的扩展,未来或许会出现多种技术结合的新的交互方式,而手势识别一定是其中不可或缺的一环。 结语: 有了手势识别,VR体验的沉浸感和交互性会大大增强是毋庸置疑的,不过从目前的硬件发展来看,手势识别想要成为VR中最自然的交互方式,还需要等待动作追踪和深度学习算法的深入研究,而且可能还需要与其它交互方式相结合

    2.3K30发布于 2018-05-28
  • 来自专栏Android知识点总结

    Flutter手势交互+自定义绘板组件v0.01

    现在让我们来看一下控件如何实现交互 最后会实现一个简单的有点笔触效果的画布,来说明如何使用手势交互。 1.从RaisedButton看事件交互 Flutter的组件中有很多是有点击事件的,比如按钮,这里简单翻一下源码。 10, 10)), onTap: () { print("OnTap in InkWell"); }, ); 3.手绘板 v0.01 3.0:前置准备 需要的知识点:Flutter中的手势交互 pos, _paint..strokeWidth=positions[i].radius); } } } 3.2:绘板组件 这样就可以了,这里还有很多待完善的地方,不过作为手势交互应用的例子还是不错的

    1.7K10发布于 2020-04-30
  • 来自专栏音乐与健康

    多模态音乐应用:结合声音、图像和手势交互

    在过去,计算机和人类之间主要通过键盘和鼠标进行交互,但现在,多模态应用逐渐崭露头角,将声音、图像和手势等多种交互方式融合在一起,为用户带来更加丰富和自然的体验。 多模态应用的定义和特点多模态应用是指利用多种交互方式来与计算机系统进行沟通和互动的应用程序。这些交互方式可以包括声音、图像、手势、触摸和语音等。 自然性交互: 多模态应用借鉴了人类日常生活中的交互方式,如语音对话和手势操作,使交互过程更贴近人类的自然行为。 我们可以期待更加智能、自然和人性化的交互方式,为用户带来更丰富和愉悦的体验。总结多模态应用代表了人机交互的新趋势,通过融合声音、图像、手势等多种交互方式,实现更智能、自然和高效的用户体验。 在这个充满机遇和挑战的时代,多模态应用的发展将继续引领人机交互的未来。通过结合声音、图像和手势等多种交互方式,多模态应用为我们打开了一扇通向更加智能化、便捷化和愉悦化交互世界的大门。

    28410编辑于 2025-07-07
  • Quantum Metagloves:量子追踪技术重新定义VRAR手势交互精度

    这种技术通过磁性底座与指尖感应模块的协同工作,实时捕捉手指的绝对长度、宽度及关节微动,甚至能够精准识别手指触碰手掌等复杂交互动作。 目前,该技术已应用于科研机构与企业的仿真测试中,例如通过手势数据驱动机械手完成工具使用任务。 一心科研平台指出,QuantumMetagloves的推出标志着手势交互从“功能实现”迈向“精准感知”的新阶段。

    26010编辑于 2025-12-05
  • XR交互技术趋势:6DoF追踪、手势识别、眼动跟踪……

    XR交互技术通过6DoF追踪、手势追踪、眼动追踪等手段,提供更自然、精准的用户交互方式;而实时云渲染则利用云端计算能力,为终端设备呈现高质量、低延迟的复杂图形内容。 6DoF追踪定位技术是实现沉浸体验的关键技术,它可以跟踪六个自由度的旋转和位移运动,目前主要用于头部和手部的交互手势追踪技术通过感应用户手势的动作来实现交互控制,包括裸手识别和数据手套等交互方案。 这些新技术都有着不同的特点和优势,可以进一步提高手势追踪的精度和稳定性,为XR交互体验带来更加优秀的效果。 此外,未来手势追踪技术还将更加注重舒适性和自然性,目前的手势追踪设备往往需要穿戴或者手持,会限制用户的自由度和舒适度,而未来的手势追踪技术将更加注重人体工学设计,让用户可以更加自然地进行手势操作,从而提高交互的舒适度和自然度 眼动追踪技术还可以与其他的XR技术结合使用,例如头部追踪技术和手势追踪技术,从而实现更加自然、直观、高效的人机交互

    68210编辑于 2025-01-16
  • 来自专栏星河造梦坊专栏

    影创SDK☀️五、创建第一个手势交互的例子

    影创SDK的三种手势交互方式 SDK中对手势输入方式定义了三种交互方式: Far: 远处射线交互 Grab:近处抓取交互 Touch:近处触摸交互 影创项目基础配置 添加SDK后,下面开始创建第一个交互的例子 1️⃣ 场景配置 删除Main Camera 添加SDKSystem:右键SDK-SDKSystem,即可添加 2️⃣ 手势输入的开关 该项默认为保持开启 若你不想使用手势识别,将下方值设为0即可 组件说明: NearInteractionTouchable:使物体可支持近处触摸交互 NearInterationGrabbable:使物体可支持近处抓取交互 Far交互:即射线交互,不需要额外组件支持 EventsToReceive:事件的接收类型 Touch:仅支持触摸交互,选择后触发下方 TouchableButton 事件 Pointer:仅支持射线交互,选择后触发下方 PressableButton 事件 Auto:同时支持上述两种交互 即触发下方我们自己添加的事件。

    27310编辑于 2024-08-15
  • 来自专栏harmonyos从入门到精通

    75.HarmonyOS NEXT ImageItemView组件深度剖析:手势交互与动画实现(二)

    HarmonyOS NEXT ImageItemView组件深度剖析:手势交互与动画实现(二)一、手势系统架构.gesture( GestureGroup( GestureMode.Exclusive , // 手势互斥模式 TapGesture({ count: 2 }), // 双击 TapGesture({ count: 1 }), // 单击 PinchGesture({ fingers : 2 }), // 双指捏合 PanGesture({ fingers: 1 }) // 单指滑动 ))GestureGroup:手势组合容器,管理多个手势的相互关系GestureMode.Exclusive :互斥模式,同一时刻只有一个手势生效优先级顺序:后声明的手势优先级更高(这里双击手势优先于单击)二、双击缩放实现TapGesture({ count: 2 }) .onAction(() => { (>1放大,<1缩小)lastValue:记录上次缩放值,保证连续性边界处理技巧:允许超出最大/最小值一定比例(提升操作手感)手势结束后执行弹性动画四、滑动位移实现PanGesture({ fingers

    33800编辑于 2025-03-15
  • 使用 Magic Leap Toolkit 在 Unity 中实现手势交互控制:快速实践指南

    作者:科采通 标签:Magic Leap、Unity3D、手势识别、MLTK、AR开发 一、背景介绍:Magic Leap + Unity 的开发体验在 AR 开发领域,Magic Leap 设备以其空间感知能力和自然手势输入支持而闻名 如果你是 Unity 开发者,想快速构建交互式 MR 应用,Magic Leap Toolkit(MLTK) 将极大简化开发流程。 二、MLTK 简介Magic Leap Toolkit(MLTK) 是官方提供的一套 Unity 插件集合,目的是加速开发原型、简化交互逻辑,包含如下特性: 手势识别与碰撞交互(HandInput) 示例动图(参考原作者实现):六、使用技巧与经验 手势交互对手的朝向、姿态要求较高,建议在 UI 上给出提示; 多人协作场景中建议加入手势状态同步逻辑; 如果遇到组件失效,检查 SDK 版本是否匹配; MLTK 中的交互行为可进一步继承与扩展,支持定制; 七、总结Magic Leap Toolkit 提供了开箱即用的组件,极大简化了 Unity 中的手势交互开发。

    50600编辑于 2025-06-26
  • 来自专栏若城技术专栏

    75.HarmonyOS NEXT ImageItemView组件深度剖析:手势交互与动画实现(二)

    HarmonyOS NEXT ImageItemView组件深度剖析:手势交互与动画实现(二) 一、手势系统架构 .gesture( GestureGroup( GestureMode.Exclusive , // 手势互斥模式 TapGesture({ count: 2 }), // 双击 TapGesture({ count: 1 }), // 单击 PinchGesture( { fingers: 2 }), // 双指捏合 PanGesture({ fingers: 1 }) // 单指滑动 ) ) GestureGroup:手势组合容器,管理多个手势的相互关系 GestureMode.Exclusive:互斥模式,同一时刻只有一个手势生效 优先级顺序:后声明的手势优先级更高(这里双击手势优先于单击) 二、双击缩放实现 TapGesture({ count: (>1放大,<1缩小) lastValue:记录上次缩放值,保证连续性 边界处理技巧: 允许超出最大/最小值一定比例(提升操作手感) 手势结束后执行弹性动画 四、滑动位移实现 PanGesture

    25200编辑于 2025-03-16
  • 鸿蒙组件手势处理全解析:从基础操作到复杂交互实战

    一、引言:手势处理 —— 构建沉浸式交互的核心能力在鸿蒙应用开发中,手势交互系统是实现自然人机对话的关键技术。 通过识别用户的点击、滑动、拖拽等手势行为,开发者能够构建符合直觉的交互体验,如图片编辑中的多点缩放、列表项的滑动删除、组件的自由拖拽等场景。 ,提供了从基础交互到复杂手势的完整解决方案。 ,逐步尝试复杂交互场景,结合官方模拟器的手势调试工具(如多点触控模拟)验证效果。 随着鸿蒙生态的演进,手势处理将与 AI 交互、多设备协同深度融合,成为全场景应用的核心竞争力。

    52800编辑于 2025-06-18
  • 《以 C++为笔,绘就手势识别人机交互新画卷》

    一、手势识别人机交互:科技与人文的深度交融手势识别技术的出现,打破了传统交互方式所设定的重重枷锁,让人类与机器之间的交流变得如同人与人之间的互动一般自然流畅。 交互功能实现的桥梁纽带:当手势被成功识别后,如何将识别结果转化为实际的交互动作是系统开发的最后一公里。C++在这一环节再次发挥其独特的优势,它犹如一座坚固的桥梁,紧密连接着识别结果与交互功能的实现。 五、展望未来:C++引领手势交互走向新辉煌展望未来,随着科技的不断创新与突破,基于手势识别的人机交互系统必将迎来更加广阔的发展前景和无限的可能。 未来,手势识别系统有望与更多前沿科技深度融合,开启全新的交互体验篇章。 综上所述,C++在基于手势识别的人机交互系统开发进程中,无疑是一位不可或缺的核心伙伴。

    34500编辑于 2024-12-03
领券