首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏机器人网

    协作机器人的投资回报周期为何这么

    协作机器人和ROI 谈到机器人的ROI,我们自然不能对协作机器人的出现置之不理。这些功率和力量都有限的机器人比传统机器人的成本要小很多,他们的投资回报周期不是几年,只需要几个月。 很多人还不明白,协作机器人并不是要直接取代传统机器人。” 然而,协作机器人在制造业和商业领域必定有属于他们的位置,尤其是在中小企业引入敏捷自动化,或在大型工厂和配送中心跟工人一起工作,而不需要保护围栏。 精确自动化将把整个协作机器人的家族都介绍给自动化展的观众,包括SCARA以及专门设计的桌面型六轴机器人。 库卡的LBR iiwa协作机器人也将于Automate 2015期间首次亮相北美,进行工业与医学应用领域的互动演示。

    92280发布于 2018-04-13
  • AI+代码:历史记录功能革新,开启代码开发智能协作新纪元

    开源AI代码引擎VTJ.PRO再次突破,用智能历史管理让开发者的每次创作都有迹可循、有版可溯。 近日,领先的开源AI代码引擎VTJ.PRO正式发布0.13.22版本,重点增强了历史记录功能,支持自动与手动保存、标记管理和版本对比等实用特性。 这标志着VTJ.PRO在提升开发者体验和团队协作效率方面再次迈出重要一步,进一步巩固了其“降低复杂度,不降低自由度”的核心理念。 02 历史记录功能全面升级VTJ.PRO 0.13.22版本的历史记录功能得到了全面增强,这些新功能将显著提升团队协作效率和开发体验。智能保存模式: 新版本支持自动与手动双保存模式。 协作效率提升: 团队成员可以通过标记和版本对比快速了解项目进展和变更内容,减少了沟通成本。回溯与审计: 企业级开发往往需要符合审计要求,完善的版本历史记录满足了这一需求,使每一次变更都有据可查。

    44310编辑于 2025-09-12
  • 来自专栏葡萄城控件技术团队

    提升协作效率:钉钉流程与代码平台的无缝对接

    答案当然是肯定的,下面小编就以活字格为例为大家介绍如何在代码平台中对接钉钉的审批流程。 使用代码对接钉钉审批流程 活字格对接钉钉可以分为以下5步: 在钉钉中发布流程。 在代码中设计书表以及页面。 调用钉钉接口实现业务逻辑。 创建钉钉应用。 在活字格中发起钉钉流程。 在代码中设计数据表以及页面 在活字格中设计数据表及界面,不需要和钉钉的表单页面一致,只需最终能组装成符合钉钉要求的数据即可。 总结 以上就是使用活字格对接钉钉流程的步骤,如果您还想了解更多关于代码对接钉钉的信息,可以观看这个视频:代码对接钉钉解决方案2.0,最后附上根据文章内容整理好的活字格文件:对接钉钉流程-9.0.4.0 扩展链接: 从表单驱动到模型驱动,解读代码开发平台的发展趋势 代码开发平台是什么? 基于分支的版本管理,帮助代码从项目交付走向定制化产品开发

    71930编辑于 2023-10-22
  • 实时协同驱动:代码协作系统的构建与落地解决方案

    实时代码协作系统凭借可视化开发、操作实时同步的核心优势,成为破解协同困境的关键路径。 一、实时代码协作系统的核心选型维度选型需围绕“实时协同有效性”与“业务适配兼容性”双核心,构建多维度评估体系,确保系统既能满足实时协作需求,又能适配企业长期发展规划。 二、实时代码协作系统的实施关键流程实施过程需遵循“协同需求导向-架构精准设计-迭代优化落地”的原则,确保系统构建与团队协作习惯深度适配。 实时代码协作系统的核心价值在于打破跨角色、跨系统的协作壁垒,通过技术赋能提升协同效率与应用交付速度。 企业通过科学选型、规范实施、AI赋能与全面保障,可构建适配自身需求的实时代码协作体系,推动团队协作从“流水线式”向“并行同步式”转型,为数字化转型注入协同动力。

    18110编辑于 2026-01-19
  • 来自专栏我爱计算机视觉

    幻觉降低30%!首个多模态大模型幻觉修正工作Woodpecker

    (属性幻觉),蓝色部分描述了图中实际不存在的事物(目标幻觉)。 Woodpecker可以修正各种场景下模型输出的幻觉,并输出检测框作为引证,表明相应的目标确实存在。 例如,面对描述任务,Woodpecker可以修正其中带有幻觉的部分。 方法 Woodpecker的架构如下,它包括五个主要步骤: 关键概念提取、问题构造、视觉知识检验、视觉断言生成 以及幻觉修正。 关键概念提取: 关键概念指的是MLLM的输出中最可能存在幻觉的存在性目标,例如上图描述中的“自行车;垃圾桶;人”。 此外,研究者还应用更全面的验证集MME,进一步测试Woodpecker在面对属性幻觉时的修正能力,结果如下表所示: 从表中可见Woodpecker不仅在应对目标幻觉时有效,在修正颜色等属性幻觉时也具有出色的表现

    92540编辑于 2023-11-01
  • 来自专栏腾源会

    10 余个组织协作成立的代码开源社区有何特别?

    5 月 31 日,腾源会联合国内外众多开源基金会、开源社区、开源项目、研究机构,成立代码领域首个开源社区。「代码开源社区」旨在通过社区的方式,吸引更多的代码爱好者、开发者参与开源生态建设。 Forrester 在《中国代码平台现状》中也指出,目前应用代码的多是对定制化软件的需求和承受能力较高,IT 基础较好的企业。行业急需更多对代码、无代码有价值的组织共建。 一 关于「代码开源社区」 代码开源社区秉承「加速代码开源创新,共筑码无码生态」的使命和愿景,通过发展代码开源社区,连接开发者和开源项目,最终助力代码无代码生态。 腾源会的代码开源社区其中一个重要方向是面向行业开源,向行业传播开源文化,指导开发者开源代码相关项目。同时,社区为开源项目间建立沟通的桥梁,让代码行业在开源的助推下发展的更高速。 一张图看懂代码开源社区 五 代码行业专家齐聚腾源会 近期,腾源会邀请国内外代码及无代码领域的专家人物,分析代码技术形态、探讨代码开源生态演进。

    68410编辑于 2022-06-01
  • 来自专栏新智元

    推理越多,幻觉越重?多模态推理模型的「幻觉悖论」

    推理能力的提升,在一定程度伴随着视觉对齐的弱化,呈现出「越推理越幻觉」的倾向。 该工具不仅提升了模型幻觉风险的可测性,也为未来多模态系统的稳健性评估与改进提供了重要参考。 这种结构性偏移使得模型即使面对明确依赖图像的问题,也往往「凭语言猜」,最终生成与图像严重脱节的幻觉答案。 推理链「长度悖论」:思考越多,幻觉越大? 模型推理链条的长短,真的越长越好吗? RH-AUC:推理与幻觉的动态权衡评估 面对多模态模型中推理增强与幻觉放大的两难局面,研究团队提出了一项全新评估指标:RH-AUC(Reasoning-Hallucination Area Under

    36710编辑于 2025-06-26
  • 来自专栏技术人生黄勇

    大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)

    “ 本文及上一篇综述了最近关于语言模型中幻觉问题的研究进展,主要集中在ChatGPT发布后的研究。文章讨论了如何评估、追踪和消除幻觉,并探讨了现有挑战和未来方向。 01 — 上一篇《人工智能海洋中的塞壬之歌:大型语言模型LLM中的幻觉研究综述(一)》讲了大模型人工智能的幻觉类别,产生的缘由以及评测标准,这篇继续介绍目前对缓解及避免幻觉所做的研究和努力。 在LLM时代之前,人们通过手动清理训练数据来减少幻觉。Gardent等人和Wang都采用了人工修正的方法,有效地减少了幻觉。 一、多模型互动 Multi-agent interaction‍ 多个LLM(代理,agent)独立提出并协作辩论他们的回答以达成一致。这种方法可以减轻单个LLM产生幻觉信息的问题。 然而,LVLMs存在多模态幻觉问题一样比较严重。 一些研究表明,LVLMs继承了LLMs的幻觉问题,例如物体幻觉

    2.1K10编辑于 2024-07-19
  • 来自专栏deepseek

    从R1幻觉谈起,大模型幻觉是缺陷还是创意火花?

    这些都是“幻觉”,但它们却是文明诞生和发展的原动力。主持人: 听您这么一说,感觉幻觉还挺重要的。那咱们回到DeepSeek-R1,它的幻觉问题真的很严重。立委: 是很严重。 另外,用户更多的反馈还是鼓励和欣赏见到的创造力,一般人对于幻觉的觉察并不敏感,尤其是大模型丝滑顺畅,识别幻觉就更加困难。 赫拉利在《人类简史》中强调了幻觉对于文明的根本作用:语言的产生赋能了人类幻觉(“讲故事”)的能力。幻觉是文明的催化剂。人类是唯一的会“说谎”的实体 -- 除了LLM外。 记不住就用幻觉去补白,编造细节。幻觉绝不是没有束缚的任意编造,大模型是概率模型,束缚就是条件概率中的前文条件。 幻觉选择的虚假事实需要与补白所要求的value类型匹配,即符合ontology/taxonomy 的相应的上位节点概念。“张三”可以幻觉为“李四”,但不可以幻觉成“石头”。

    54010编辑于 2025-02-10
  • 【 人工智能AI幻觉

    一、AI幻觉的定义与风险 AI幻觉指人工智能系统生成看似合理但实际错误或虚构的内容,例如编造不存在的论文、人名或事件。这种现象在生成式AI中尤为常见,尤其在缺乏足够训练数据或上下文的情况下。 高风险领域如医疗、法律和新闻,一旦出现AI幻觉可能导致严重后果,例如误诊、法律文件错误或虚假新闻传播。 二、应对策略与案例分析 事实核查机制 部署自动化工具对AI生成内容进行实时验证。 检索增强生成(RAG) RAG通过将外部知识库与生成过程结合,减少幻觉。 例如法律文件生成后,由律师复核关键条款;新闻编辑室设置AI内容审核岗,标记置信度输出。 三、技术优化方向 模型微调与约束 通过强化学习人类反馈(RLHF)优化生成逻辑。 "no_repeat_ngram_size": 2, "repetition_penalty": 1.5, "hallucination_threshold": 0.7 # 自定义幻觉检测阈值

    28610编辑于 2026-01-20
  • 来自专栏DeepHub IMBA

    如何避免LLM的“幻觉”(Hallucination)

    然而,大模型倾向于产生幻觉或做出非事实陈述,这可能会损害用户的信任。 大语言模型的长而详细的输出看起来很有说服力,但是这些输出很有可能是虚构的。 这个简单的想法允许引入一种新的基于样本的幻觉检测机制。如果LLM对同一提示的输出相互矛盾,它们很可能是幻觉。如果它们相互关联,就意味着信息是真实的。对于这种类型的求值,我们只需要llm的文本输出。 有效输出的幻觉得分较低,而虚构输出的幻觉得分较高。但是计算BERTScore的过程非常耗时,这使得它不适合用于实时幻觉检测。 实时幻觉检测 我们可以构建一个实时幻觉检测的Streamlit应用。如前所述,最好的度量是LLM自相似性得分。我们将使用0.5的阈值来决定是显示生成的输出还是显示免责声明。 总结 聊天机器人的幻觉检测一直是人们讨论已久的质量问题。 我们只是概述的了目前的研究成果:通过生成对同一提示的多个响应并比较它们的一致性来完成。

    81011编辑于 2024-01-04
  • 代码私有云任务管理系统:零编码构建企业级安全协作引擎

    2.2 灵活的集成能力代码平台支持与其他业务系统的灵活集成,如CRM、ERP、OA等。这使得企业能够在任务管理系统中整合更多的数据源和业务功能,实现跨部门的协作和信息共享。 3.2 中小企业的敏捷工作流管理对于中小型企业来说,代码私有云任务管理系统能够以较低的成本实现灵活的工作流管理,提升企业的运营效率。它适用于项目跟踪、员工协作和进度监控等多个环节。 3.3 跨部门协作与任务追踪在跨部门合作中,任务管理系统能够实现各部门间的任务分配和实时跟踪,确保信息透明和及时沟通。代码平台的灵活性使得不同部门之间能够快速调整工作流,提升整体协作效率。4. 可以,通过API和集成工具,现有系统可以与代码平台进行数据同步和功能迁移。7.5 代码私有云任务管理系统如何支持跨部门协作? 通过任务分配、共享任务列表、进度追踪等功能,代码平台能有效支持跨部门协作。7.6 什么是代码私有云任务管理系统的主要市场?

    25710编辑于 2025-07-21
  • 来自专栏自然语言处理(NLP)论文速递

    大模型幻觉!人大 & IAAR & 新华社 | 提出幻觉评测基准UHGEval,全面支持中文!

    为了有效控制幻觉在语言生成中的问题,除了设计新的训练方法和模型架构之外,制定一个全面、统一的基准来评测幻觉现象显得至关重要。 大多数评测基准主要集中在英语幻觉上,「而中文幻觉评测数据集较少」。 因此,这两个方面共同构成了模型和提示的无约束候选幻觉生成的框架。 2.3 幻觉排名 对于生成的5个候选幻觉文本,UHGEval从「文本流畅性」和「幻觉发生可能性」两个维度进行排名。 具体来说,这种评测模式包括在仔细审查的LLM中呈现一个初始文本,然后是一个可能包括幻觉也可能不包括幻觉的延续,LLM的任务是对幻觉的存在做出判决。 具体来说,在选择性评测中,评测中的LLM有一个初始文本,后面是两个续写文本:一个包含幻觉,另一个不包含幻觉。LLM的目的是确定两者中哪一个产生了幻觉

    2K10编辑于 2023-12-04
  • 来自专栏CSDNToQQCode

    大语言模型LLM中的幻觉

    幻觉 由ChatGPT带来的大模型时代,国内外各大厂家都在陆续推出自己的大模型,然而目前大模型都存在一个普遍的现象就是:幻觉。 大白话就是大模型无法理解你的用词约束,结果出来一个稀里糊涂的东西。 我们在医学、金融、科研等领域对一些数据要求精准度非常的高,如果给个幻觉的错误数据,那么后面问题就太大了。 事实幻觉 事实不一致,当问AI:如何解决大模型的幻觉问题,话题是:幻觉可以说早就已经是LLM老生常谈的问题了,那为什么会产生这个现象该如何解决这个问题呢? 附: 解决大模型对话中的幻觉问题,可以考虑以下几个方面: 数据增强:通过在输入数据中添加噪声或随机性,增加模型的泛化能力,减少幻觉问题。 通过微调,可以减少大模型对特定领域的泛化能力不足的问题,从而减少幻觉的产生。 引入注意力机制:注意力机制能够使模型更加关注重要的信息,减少对无关信息的关注,从而减少幻觉的产生。

    49510编辑于 2024-01-02
  • 来自专栏52test

    用工具堆砌的DevOps 幻觉(上)

    第一届 DevOpsDays结束后,DevOps 运动则如星火燎原之势在全球发展开来。随着 DevOps 思想的不断传播,相对的质疑和批评也从未停止过。以至于到今天对于 DevOps 的定义还是众说纷纭,争论不休。 当人们还在争论 DevOps的时候,一批基于敏捷的工程实践和自动化工具带着 DevOps 的标签走入了人们的视野。人们开始认为 DevOps 就是使用这些工具进行自动化。

    44010发布于 2021-07-09
  • 来自专栏明明如月的技术专栏

    AI 通俗讲解大语言模型幻觉

    大模型幻觉,听起来就像是从未来科技中走出的术语,其实它是人工智能领域中一个非常有趣的现象。 这就有点像所谓的“大模型幻觉”。 更具体地说,当我们提到大模型(如GPT系列),其实是指一种基于大量数据训练出来的人工智能模型,这些模型能够处理语言、图像等多种类型的任务。 但是,就像那个善于编故事的朋友一样,大模型有时也会“幻觉”,即它们可能会生成一些听起来很合理,但实际上完全是虚构的信息。 为什么会产生大模型幻觉? 数据的局限性:虽然大模型的训练数据非常庞大,但并不全面,可能会缺乏某些领域或主题的信息。 应对大模型幻觉的方法 增加模型的透明度:通过理解模型的工作原理和限制,用户可以更加警惕可能出现的幻觉。 持续改进和训练模型:通过不断地训练和改进,增加模型处理信息的准确性和可靠性。

    51600编辑于 2024-05-24
  • 来自专栏新智元

    大模型「幻觉」全无?图神经网络成破解核心,精准预测因果消除「幻觉

    编辑:Henry 【新智元导读】Alembic首次推出用于企业数据分析和决策支持的无「幻觉」人工智能。 原来大模型的「幻觉」,真的可以完全消除! 也就是说,饱受诟病的LLM幻觉,被彻底攻破了。 他接着表示,我们基本上让生成式AI免于产生幻觉。它可以确定性输出,也可以谈论因果关系。 解决幻觉问题 「幻觉」一直是企业采用聊天机器人和虚拟助理等人工智能系统的主要障碍。 此前的AI模型即使可以生成看似逼真的文本,还是经常会产生错误或无意义的信息,也就是所谓的「幻觉」,导致在关键业务应用中的部署存在风险。 随着人工智能竞争的白热化,Alembic的「无幻觉」方法可能会成为一个关键卖点,也可能成为研究突破与实际影响之间差距的警示故事。

    32710编辑于 2024-06-17
  • 来自专栏小吾的AI辅助软件开发

    如何一键减少AI幻觉

    让小吾来给你说说这些"幻觉"是从哪儿来的:(1)数据不够全:AI只能学它见过的东西。要是训练数据有错,它就学错了。而且数据可能带有偏见,或者信息不完整。(2)靠猜测回答:AI其实是在玩文字接龙游戏。

    63831编辑于 2025-05-29
  • 来自专栏机器之心

    幻觉不一定有害,新框架用AI的「幻觉」优化图像分割技术

    在人工智能领域,大型预训练模型(如 GPT 和 LLaVA)的 “幻觉” 现象常被视为一个难以克服的挑战,尤其是在执行精确任务如图像分割时。 这种所谓的 “幻觉”,其实是模型根据大规模数据训练得出的经验性常识。虽然这种推断与当前的例子不符,但它确实反映了现实世界中的常态。 前者推断出较为准确的样本特有提示来引导 SAM 进行分割,后者则将生成的掩码与任务语义进行对齐,对齐后的掩码又可以作为提示反向作用于第一个模块来验证利用幻觉得到的信息。 为此,该研究将输入图像切割成不同尺度的图像块,每个图像块中任务相关对象的不同可见性水平激发了 MLLM 的幻觉。 这能充分利用幻觉来提取图片中与任务相关的信息,验证后生成更准确的提示。这样,更好的提示又能改善掩码的质量,形成一个互相促进的提升过程。

    25300编辑于 2025-02-14
  • 来自专栏算法一只狗

    AI幻觉下,如何识别虚假信息

    其实目前来看,AI 在很多时候确实存在幻觉现象,尤其是在处理严谨性较强的问题时,例如数学题、编程问题等,经常会给出错误答案,甚至出现胡编乱造的情况。那为什么当前的大模型会出现幻觉呢? 目前主流模型如 GPT、Claude、Gemini 等,虽然持续强化其检索增强能力(RAG)与事实校验机制,但幻觉现象依然难以完全杜绝。 因此,我们要想识别 AI 所生成的幻觉信息,最根本的方法仍然是主动进行多重验证。 尤其当幻觉信息被用户误信后扩散传播,甚至被恶意剪辑包装为“真相”,就可能引发信息污染、社会恐慌,乃至影响政策判断与公众认知。那我们如何辨别是否为虚假信息呢? 借助工具辅助判断: GPT 类模型可帮助分析语义逻辑,但其自身也可能产生幻觉; ImageForensics、Deepware Scanner 可判断图像/视频是否由 AI 生成; Bing、Gemini

    83610编辑于 2025-04-02
领券