首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏CreateAMind

    Action perception as hypothesis testing

    Action perception as hypothesis testing 扫视眼动背后的驱动力是对感官信息原因的相互竞争解释的不确定性的解决 Abstract 我们提出了一种新颖的计算模型,将动作感知描述为一种主动推理过程

    36810编辑于 2024-03-25
  • 来自专栏CreateAMind

    Depth Perception with cGAN cyclegan做视觉深度学习

    http://cs231n.stanford.edu/reports/2017/pdfs/200.pdf

    72220发布于 2018-07-24
  • 来自专栏CreateAMind

    DeepDriving: Learning Affordance for Direct Perception inDriving

    article/details/53897535 http://deepdriving.cs.princeton.edu/ DeepDriving: Learning Affordance for Direct Perception 2. mediated perception(基于标志线检测) 我们根据【文末参考文献1】中的方法完成标志线检测。 Direct Perception with GIST(略) 5. 在真实环境中测试 5.1 真实视频测试 在真实环境的测试中,我们选用了一段搜集拍摄的视频作为测试。 结论 直接看原文吧 In this paper, we propose a novel autonomous driving paradigm based on direct perception. architecture to estimate the affordance for driving actions instead of parsing entire scenes (mediated perception

    76850发布于 2018-07-24
  • 来自专栏GPUS开发者

    ROS 开发人员将使用 NVIDIA AI Perception(讲座预告)

    NVIDIA 宣布了其最新举措,旨在为 ROS 开发者社区提供一套感知技术。这些举措将为寻求将尖端计算机视觉和 AI/ML 功能融入其基于 ROS 的机器人应用程序的开发人员缩短开发时间并提高性能。

    93430发布于 2021-10-13
  • 来自专栏机器人课程与技术

    机器人感知-视觉部分(Robotic Perception-Vision Section)

    今年参加了ROS机器人暑期学校的交流分享,非常感谢组委会的邀请和易科的支持,虽然讲稿准备了一段时间,但是依然感觉没有讲好,在博文中再具体写一下。

    2.4K21发布于 2019-01-23
  • 来自专栏Frank909

    自动驾驶 Apollo 源码分析系列,感知篇(二):Perception 如何启动?

    从 Apollo 的官方文档,我们很容易得知 Perception 是核心的组件之一,但像所有的 C++ 程序一样,每个应用都有一个 Main 函数入口,那么引出本文要探索的 2 个问题: Perception Perception 如何启动? CyberRT 在讲 Perception 组件具体内容前,非常有必要讲 CyberRT。 /modules/perception/production/dag/dag_streaming_perception.dag</dag_conf> <! /perception/production/conf/perception/perception_common.flag" readers { channel: "/apollo 中启动 perception 一个组件的整个代码过程。

    2.4K50编辑于 2021-12-06
  • 来自专栏CreateAMind

    ASI 8年计划 paper4 The FEP for Perception and Action: 深度学习视角

    The Free Energy Principle for Perception and Action: A Deep Learning Perspective Abstract摘要: 自由能原理及其必然结果主动推理构成了一种生物启发理论

    36810编辑于 2024-02-26
  • 来自专栏机器人课程与技术

    ROS2机器人编程简述humble-第三章-PERCEPTION AND ACTUATION MODELS .1

    3.1 PERCEPTION AND ACTUATION MODELS 3.1感知和驱动模型 线性速度应为m/s,旋转速度rad/s,线性加速度m/s2。 x向前增长,y向左增长,z向上增长。

    71330编辑于 2023-02-10
  • CEH-Flow-Perception:一种基于双场时空耦合的实时物理驱动动态避障方法 - 陈恩华

    摘要本文提出一种基于双场时空耦合的实时动态避障方法CEH-Flow-Perception。 ,基线96%平均延迟:CEH-Flow-Perception12.3ms,基线168ms轨迹长度:CEH-Flow-Perception约为最短路径的1.02倍,基线约为1.15倍动态障碍穿行碰撞次数: CEH-Flow-Perception0.3/100次,基线3.5/100次急停次数:CEH-Flow-Perception0.8/100次,基线22.4/100次舒适度评分:CEH-Flow-Perception8.7 /10,基线5.2/10遮挡场景记忆保持时间:CEH-Flow-Perception4.8s,基线0s误报率:CEH-Flow-Perception2.1%,基线18.7%多智能体场景(50个)死锁概率 :CEH-Flow-Perception0%,基线14%吞吐量:CEH-Flow-Perception48.3agents/s,基线32.7agents/sCPU占用:CEH-Flow-Perception23%

    11310编辑于 2026-03-30
  • 来自专栏VRPinea

    2.5 VR扫描:AR眼镜厂商RealWear完成1700万美元融资;诺亦腾发布Perception Neuron 2.0

    动捕技术厂商诺亦腾发布Perception Neuron 2.0 近日,动捕技术厂商诺亦腾发布动捕设备Perception Neuron 2.0版。 此次发布的Perception Neuron 2.0包含一个全新的安装与搭扣锁定机制,可以方便地连接到设备支持的各种配件上,旨在让3D动画制作、电影制作及游戏开发变得更容易。 据悉,Perception Neuron 2.0单个售价30美元。 VRPinea独家点评:性能提升,价格不变,很良心了。

    1K100发布于 2018-05-18
  • 来自专栏蓝里小窝

    神经网络 | 感知器原理及python代码实现and和or函数

    = train_and_perception() #print(and_perception) # and测试 #print( '1 and 1 = %d' % and_perception.predict ([1, 1])) #print( '1 and 0 = %d' % and_perception.predict([1, 0])) #print( '0 and 1 = %d' % and_perception.predict ([0, 1])) #print( '0 and 0 = %d' % and_perception.predict([0, 0])) or_perception = train_or_perception () print(or_perception) # or测试 print('1 or 1 = %d' % or_perception.predict([1, 1])) print ('1 or 0 = %d' % or_perception.predict([1, 0])) print('0 or 1 = %d' % or_perception.predict([0, 1

    1.1K30编辑于 2023-03-05
  • 来自专栏C++干货基地

    【百度Apollo】探索自动驾驶:百度Apollo视觉感知模块的实践与创新

    步骤四:启动视觉感知模块 启动红绿灯检测模块 cyber_launch start /apollo/modules/perception/production/launch/perception_trafficlight.launch 启动视觉障碍物检测模块 mainboard -d modules/perception/production/dag/dag_streaming_perception_camera.dag 这个命令会同时开启视觉障碍物检测和车道线检测 /modules/perception/production/dag/dag_streaming_perception_lane.dag 三、在 Dreamview 上可视化检测结果 视觉障碍物主要检测远处 vim modules/perception/production/conf/perception/camera/fusion_camera_detection_component.pb.txt 定位到第 步骤七:启动视觉障碍物检测模块 mainboard -d modules/perception/production/dag/dag_streaming_perception_camera.dag 注意

    72500编辑于 2024-05-26
  • 来自专栏大数据zjiekou

    visualize查询数据报错有一个分片失败如何解决

    /perception/fusion/perception_fusion2.p99", "percents": [ 99 /perception/lidar/rs_perception_node.p99", "percents": [ 99 /perception/fusion/perception_fusion_mid.p99", "percents": [ /perception/fusion/perception_fusion2.p90", "percents": [ 99 /perception/fusion/perception_fusion2.p99", "percents": [ 99

    57530编辑于 2023-07-25
  • 来自专栏深度学习|机器学习|歌声合成|语音合成

    第1节:感知机perceptron原理与numpy复现

    文章目录 感知机perception 感知机原理 感知机学习策略numpy复现 感知机perception 感知机是最古老的分类方法之一.在1957年就已经提出了.虽然今天看他的分类模型泛化能力不强, 感知机perception是二分类的线性分类模型,输入是实例的特征向量,输出是+1和-1二值.感知机对于输入空间中将实例划分为正负两个类的超平面,属于判别模型.感知机学习过程就是将数据集进行线性瓜分,导入损失函数 @Description : 感知机numpy实现版本 @Run Script : python perception.py @Envs : 0,1,-1]]) XTrain,Ytrain = data[:-1,:-1],data[:-1,-1] Xtest,Ytest = data[-1, : -1], data[-1, -1] # 训练 perception = perception_model(XTrain) perception.fit(XTrain,Ytrain) yPredict = perception.predict(Xtest) print(

    97810编辑于 2021-12-02
  • 来自专栏VRPinea

    诺亦腾CTO戴若犁:VR会长期存在于B端商用,Noitom当前致力于将To B做精

    而目前,已发售的、适配虚拟现实开发的产品有:面向个人开发者的动捕设备Perception Neuron、面向专业影视制作者的动捕设备Perception Legacy、大空间多人商用VR解决方案Project 与之相呼应的,诺亦腾近期已对外公布将于今年晚些时候发售Perception Neuron Pro,一套基于IMU传感器的全身动捕系统。 VRPinea了解到,新产品整体数据表现相较于上一代Perception Neuron会有很大提升。其最大的两个亮点:一是由半无线变全无线。 Perception Neuron 二是由纯惯性动捕,变成光学和惯性动捕结合。 诺亦腾与大众进口汽车合作 另外,值得一提的是,Perception Neuron与Unreal引擎中Live link功能的对接。

    1.2K30发布于 2018-06-11
  • 来自专栏C++干货基地

    Apollo自动驾驶概述:引领智能交通的未来(文末赠送apollo周边)

    以下是一个简单的示例代码,演示如何使用百度Apollo进行车辆感知: // 导入必要的库 import com.baidu.apollo.perception.Perception; import com.baidu.apollo.perception.types.LidarData ; import com.baidu.apollo.perception.types.VisionData; // 创建Perception实例 Perception perception = new Perception("YOUR_API_KEY"); // 模拟激光雷达和摄像头数据 LidarData lidarData = new LidarData.Builder().distance( (); VisionData visionData = new VisionData.Builder().objectDetected(true).build(); // 处理激光雷达和摄像头数据 perception.processLidarData (lidarData); perception.processVisionData(visionData); // 获取处理结果 System.out.println("车辆位置:" + perception.getVehiclePosition

    41010编辑于 2023-12-29
  • 来自专栏机器人课程与技术

    ROS机器人程序设计(原书第2版)补充资料 (拾) 第十章 使用MoveIt!

    2.3 - Coordinate Transforms using TF Exercise 2.4 - Build a MoveIt Package Session 4 - Descartes & Perception Exercise 4.5 - Building a Perception Pipeline Training Presentation Slides - Recap Session 5 - Addendum Exercise 3.7 - Simple MoveIt application UR-5 Demo - Run Motion on UR-5 Robot Session 4 - Descartes & Perception Exercise 4.5 - Building a Perception Pipeline Session 5 - Addendum Presentation Slides - Session 5 Eclipse Manipulation Introduction - Perception-Driven Manipulation Exercise 1 - Inspect the "pick_and_place_exercise

    1.2K30发布于 2019-01-23
  • 来自专栏DataFunTalk

    L4自动驾驶中感知系统遇到的挑战及解决方案

    李阳光.png 导读:本次分享的大纲: Perception Introduction Sensor Setup & Sensor Fusion Perception Onboard System Perception Technical Challenges -- 01 Perception Introduction Perception系统是以多种sensor的数据,以及高精度地图的信息作为输入,经过一系列的计算及处理 -- 02 Sensor Setup & Sensor Fusion 以上是Perception系统从输入到输出的一个大概介绍。 -- 03 Perception Onboard 上面大概介绍了整个perception的sensor的setup,以及sensor fusion做法。 接下来介绍车载的Perception Onboard的架构是什么样的,以及解决方案是什么。 这是整个Perception Onboard的架构。

    1.1K20编辑于 2022-04-21
  • 来自专栏杨熹的专栏

    神经网络 之 感知器的概念和实现

    代码实现 [main] 先训练and感知器 and_perception = train_and_perceptron() 得到训练后获得的权重和偏置 print and_perception weights :[0.1, 0.2] bias :-0.200000 再去测试,看结果是否正确 print '1 and 1 = %d' % and_perception.predict([1, = train_and_perceptron() # 打印训练获得的权重 print and_perception # 测试 print '1 and 1 = %d' % and_perception.predict([1, 1]) print '0 and 0 = %d' % and_perception.predict([0, 0]) print '1 and 0 = %d' % and_perception.predict([1, 0]) print '0 and 1 = %d' % and_perception.predict([0,

    88640发布于 2018-04-03
  • 来自专栏C++干货基地

    百度Apollo:自动驾驶的领航者

    1.1 Camera 障碍物检测流水线: 1.2 Camera感知配置文件梳理 Camera 感知的入口为 dag_streaming_perception_camera.dag,Camera 感知模块 该配置文件包含了该 pipeline 对应的所有 stage、plugin 的配置项 module_config { module_library : "/apollo/bazel-bin/modules/perception CameraObstacleDetectionComponent" config { name: "CameraObstacleDetectionComponent" config_file_path: "/apollo/modules/perception /production/conf/perception/camera/fusion_camera_detection_component.config" flag_file_path: "/apollo /modules/perception/production/conf/perception/perception_common.flag" } } } 二、数据输入 // 示例代码 #include

    50210编辑于 2024-01-05
领券