近年来,给他人权益造成损害的AI事故快速增加,从自动驾驶汽车和有形机器人的安全事故到AI诊疗软件的错误诊断再到各种自动化决策系统的算法歧视、不公平决策,可以说,AI事故和AI侵权正日益成为AI社会的“新常态 在人工智能的应用无处不在的今天,人们必须正视AI事故和AI侵权的法律责任问题。当AI系统造成事故和损害,法律必须给受害人提供公平且有效的救济。但问题是,谁应为AI事故和AI侵权负责? 在根本上,我们需要发展工具型AI(tool AI),而非所谓的全面接近人类的主体性AI。 误区2:将公法上AI风险类型化理念和AI侵权责任规则勾连。 欧盟人工智能法案是这种思路的典型代表,其按照风险高低,将AI系统分为不可接受风险AI、高风险AI、有限风险AI以及最小风险AI等四大类,并重点规定了高风险AI的要求和相关经营者(提供者、部署者等)的义务等 在这种规制思路下,人们倾向于将AI系统的风险程度和归责原则相挂钩,比如将高风险AI和无过错责任相挂钩,而将低风险AI或非高风险AI和过错责任或过错推定责任相挂钩。
随着AI代理的日益普及,在其使用它们的重点行业中,潜在的危险也在增加。鉴于此,C级高管面临着一个关键问题:当AI失控时,谁来负责? AI问责制:不断变化的格局 AI的激增正在扰乱现代企业的组织结构。 Pearl Meyer的一份报告显示,30%的公司选择将AI相关的责任纳入现有的高管角色。与此同时,“32%的公司正在采取去中心化的AI监督方法,并期望AI工作由多个职能部门的各种领导者负责”。 在当今大多数组织中,CISO、CIO和CTO承担着AI行为和安全的主要责任。这可能会在不同的领导角色之间造成紧张关系,因为CISO无法控制AI系统,但他们却负责维护安全。 因此,如果AI代理失控并且无法解释其决策,那么确定出了什么问题可能具有挑战性(如果不是不可能的话)。那么,负责AI系统的领导者如何在这样一个不完美的世界中获得尽可能多的透明度和控制权呢? 组织必须确定谁应对 AI 的行为负责,这可能意味着弥合 CISO、CIO 和 CTO 之间的差距,或聘用一位完全专注于 AI 的高管。
2023年:Hassabis 被任命为谷歌 AI 部门的负责人,负责整合 DeepMind 和 Google Brain 的团队,以推动 AI 技术的商业化。 对AI的看法和观点 根据 Hassabis 的多次访谈,他认为 AI 不仅是一个技术工具,更是探索人类意识和宇宙奥秘的一种方式。他强调 AI 的发展应以伦理为基础,并关注其对社会的影响。 他相信,AI 能够帮助人类解答生命中最重大的问题,并揭示宇宙的奥秘。他表示,AI 不仅是一个工具,更是探索人类思维、意识和宇宙本质的关键手段。 Hassabis 在多次访谈中提到,图灵测试已不再适用于现代 AI。他认为,这一测试过于依赖人类的主观判断,容易导致对 AI 系统的误解。 他强调,目前没有任何 AI 系统具备真正的意识或感知能力,而是通过复杂算法模拟人类行为。 Hassabis 对未来的 AI 发展充满希望,他认为 AI 将为人类带来前所未有的自由与创造力。
在可预见的未来,随着AI的能力越来越强,其应用和影响将日益加深,因此,负责任的AI(Responsible AI)将变得越来越重要。而负责任的AI的推进和落实,离不开合理有效的AI治理。 第三,强调AI领域的科技伦理治理。国家新一代人工智能治理专业委员会先后发布《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》,为发展负责任的AI提供伦理指南。 在企业层面,科技企业作为AI技术创新和产业应用的主体,担负着负责任地研发应用AI的重要责任。 因此,AI治理的首要任务是,持续倡导并践行“负责任AI”的理念;“负责任AI”必须是以人为本的,要求在设计、开发、部署AI的技术实践中秉持善意,增进对技术的信任,给利益相关方创造价值并增进其福祉,防范滥用 总之,有效的AI治理需要推动负责任AI实践走向深入,打造可信AI(Trustworthy AI)。
在可预见的未来,随着AI的能力越来越强,其应用和影响将日益加深,因此,负责任的AI(Responsible AI)将变得越来越重要。而负责任的AI的推进和落实,离不开合理有效的AI治理。 第三,强调AI领域的科技伦理治理。国家新一代人工智能治理专业委员会先后发布《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》,为发展负责任的AI提供伦理指南。 在企业层面,科技企业作为AI技术创新和产业应用的主体,担负着负责任地研发应用AI的重要责任。 因此,AI治理的首要任务是,持续倡导并践行“负责任AI”的理念;“负责任AI”必须是以人为本的,要求在设计、开发、部署AI的技术实践中秉持善意,增进对技术的信任,给利益相关方创造价值并增进其福祉,防范滥用 总之,有效的AI治理需要推动负责任AI实践走向深入,打造可信AI(Trustworthy AI)。
近年来,甚至近几个月来,被称为生成式AI的技术取得了迅猛发展。生成式AI模型在难以想象的庞大文本、代码、图像和其他丰富数据集合上进行训练。 同时也存在可以理解的担忧——其中一些是传统负责任AI问题的新变体,另一些则是全新的问题。在本文中,我将探讨这些担忧以及如何逐步解决它们。什么是生成式AI? 生成式AI可能成为许多专业环境中的有效生产力工具,这将至少改变当前人类与机器之间的劳动分工。也许对抗生成式AI担忧的最大防御可能来自最终用例的专业化。 随着生成式AI的潜在用途和危害得到更好和更广泛的理解,用户将用自己的常识补充我上面概述的一些防御措施。结论生成式AI既激发了合理的热情,也引起了合理的恐惧。 应当强调,在生成时代解决负责任AI风险将是一个迭代过程:不会有一劳永逸的"正确解决"。这一格局肯定会随着技术和我们对其态度的变化而转变;唯一不变的是需要在热情与对担忧的实际有效检查之间取得平衡。
区块链+AI:一个负责“信任”,一个负责“聪明”,能不能真结婚?大家好,我是Echo_Wish。这两年你要是混技术圈,基本绕不开两个词:AI和区块链。 :AI擅长AI不擅长预测、生成、拟合自证清白、证明过程而区块链恰好反过来:区块链擅长区块链不擅长可追溯、可审计、不可抵赖高性能计算所以你会发现一句非常关键的话:区块链+AI,不是为了“更聪明”,而是为了 五、第三个结合点:去中心化AI,不再“信平台”这是区块链+AI最被吹、但也最有潜力的一块。一句话总结:我不信你这个平台,但我信规则+验证机制。 六、别被忽悠的地方:不是所有AI都适合上链说点冷水。 七、我个人的一点真实感受我越来越觉得:AI解决的是“能不能做”,区块链解决的是“敢不敢用”。没有区块链的AI,像一个天才但没身份证;没有AI的区块链,像一本账本但不会分析。
它不负责“产生”图像,只负责“显示”图像。“Texture” 翻译成“纹理”,这个翻译确实听起来有点抽象,但它有历史原因和图形学背景。下面我给你从定义、作用、为什么叫纹理、真实例子几个角度讲清楚。
心意相通的研发之间,本不需要BB这BB那搞些约束。但宁教我心徒枉然,不教银光惹尘埃。过分的放纵爱自由,那就是一去不复返了。
AiTechYun 编辑:nanan 苹果公司聘请了谷歌前搜索和AI主管John Giannandrea,这是一项重大变动,旨在赶上其竞争对手的AI技术。 苹果周二表示,Giannandrea将负责苹果的“机器学习和AI战略”,并直接向苹果CEO蒂姆库克汇报。成为直接向苹果首席执行官蒂莫西D.库克报告的16位高管之一。 许多硅谷高管和分析师认为,苹果在AI领域落后于同行。AI是一项关键的技术,对于那些使计算机能够处理更复杂任务的公司来说越来越重要,比如理解语音指令或识别图像中的人。 近年来,苹果一直在支持其AI团队。 2016年,该公司聘请了卡内基梅隆研究员Russ Salakhutdinov,让其领导一个专注于AI的团队,并于10月份,苹果收购了Init.ai,该团队专注于用自然语言处理和机器学习创建AI的客户服务
机器之心报道 编辑:杜伟、蛋酱 对于特斯拉及其 AI 和自动驾驶业务而言,Andrej Karpathy 的离职无异于失去了顶梁之柱。 今日,特斯拉 AI 高级总监、自动驾驶 Autopilot 负责人 Andrej Karpathy 在推特上宣布自己将离职。 今年 3 月份,他宣布自己将休假四个月,就隐隐透露出离职的可能。 仅一年多后,2017 年,Karpathy 接受马斯克的邀请加入特斯拉,接替了当时的特斯拉 Autopilot 负责人、苹果 Swift 语言、LLVM 编译器之父 Chris Lattner。 随着特斯拉从最开始的自动驾驶慢慢扩展到更广泛的人工智能领域,Karpathy 也被提为特斯拉的 AI 高级总监,直接向马斯克汇报工作。 一年前,马斯克表示 Autopilot 是由 Ashok Elluswamy 和 Milan Kovac 共同负责,他将这称为「圆桌结构」。
Geoffrey Hinton麾下的人工智能圈子可谓把控着当今各巨头的深度学习命脉,从谷歌、微软、Facebook的人工智能负责人,到国内我们所熟知的百度首席科学家吴恩达,都出自Geoffrey Hinton 仅8个月后便拥有除副教授之外的第二重身份——苹果人工智能研究总监,其职业发展速度不可谓不快。 加入苹果后,Ruslan第一件事便是招兵买马。 因此苹果选择将AI学习系统放在个人的设备上,毫无疑问,这大大削弱了苹果AI的竞争力。 但苹果表示,对此他们已经有了很好的解决方案。 机器学习发展速度可能是当今世界上所有学科里面最快的,因此在机器学习领域,人们关心的不是你之前十年做过多少研究有过多少成果,而是你现在用这个理论做了什么。2. 仅仅雇佣一位大牛对于其AI事业并不会有大的推动作用。 system16:从Swift看来,苹果保密的态度似乎已经有了放宽。
不过,用语言描述一个画面是妥妥的,于是一场AI和人类的合作就开始了,以下是博主作为第一人称的创作记录: 人类:创建一个有趣的单面板漫画 ChatGPT:这是另一个单面板漫画: 一个简笔画小人坐在书桌前
AI存储网络接口的速度之争 AI存储网络接口分为外部接口和内部接口。 根据大成鹏的客户的实际使用情况,目前AI算力使用是400G和200G为主,AI存储则以200G为主。 根据大成鹏的客户的实际使用情况,目前AI算力使用是800G和400G为主,AI存储则以400G和200G为主。 根据大成鹏的客户反馈情况,目前AI存储不会使用FC网络,国内设备主流还停留在16GFC和32GFC,速率跟不上算力需求。16GFC和32GFC使用的封装为SFP28。 但负责制定规格的SCSI贸易协会(SCSI Trade Association,STA),在2023年底,提出异于原本路线图的规画,放弃48G SAS这条提高带宽的路线,改为沿用既有的24G SAS物理层
01、项目负责人自曝:改进预训练和后训练是关键 比起冷冰冰的榜单数字,更让人关注的是 Gemini 项目联合负责人 Oriol Vinyals 的爆料。 跟我之前实测过的其他大模型(MiniMax M2、Sonnet 4.5 等)相比,Gemini 3 的响应速度快得惊人,平均十几秒钟就能做好一个网页或动画,而且效果都还不错。 为了让广大用户可以用上平价且方便(无须因为地缘或者账号折腾)的正版Gemini 3,这里给大家推荐一个ai宝藏网站和使用教程: 1.注册账号并登陆 网址:https://dafoai.com 2.订阅服务 研值:即根据与AI大模型对话长度所扣取的一种计费方式,研值越多意味着可提问的次数或对话长度越多(当前Grok为免研值模型,可无限畅用) 4.点击“进入”即可进入GPT 5.开始使用
白色城堡连锁店副总裁Jamie Richardson表示,“自动化厨房机器人可以承担厨房里的那些重复、耗时又危险的工作,让后厨员工不必在高温闷热的油锅前工作,可以在更安全的环境下,负责客户服务、食材准备等别的业务 这款菜色识别机器人认识食堂内200多款菜色,运用AI图片识别技术,可以根据食物纹理在2秒内识别菜品,大幅提高了餐厅结账速度。 “感觉食堂变得更高大上了,机器的收银速度和食堂阿姨差不多。” 3 玉米片+牛肉+咖啡豆 原来你们AI好这口? 2018年,MIT的学生发布了AI披萨主厨 Strono。 Firmenich调味品公司总裁Emmanuel Butstraen表示,新冠疫情危机改变了食品创新格局以及消费市场,“我们必须以更快的速度,以更大的创造力来理解和应对快速发展的需求。
Torch编译缓存,提升推理速度很多模型,特别是FLUX系列的模型,会应用各种torch.compile技术/技巧来提高推理速度。对编译函数的第一次调用会跟踪并编译代码,这会增加开销。 随后的调用则运行优化后的代码,速度会显著加快。提示 在我们对black-forest-labs/flux-kontext-dev模型进行推理速度测试时,编译版本比未编译版本的运行速度快了30%以上。
郭一璞 发自 凹非寺 量子位 报道 | 公众号 QbitAI 苹果的AI终于有救了。 因为他们刚刚把所有AI相关部门团队整合到了一起,由4月份离职的谷歌AI一把手负责。 苹果部门整合 这次,苹果整合的是AI和机器学习部门,负责人是刚刚加入苹果的副总裁John Giannandrea。另外,Siri和Core ML两个产品团队也汇报给他。 ? 此前,苹果AI研究院的负责人是卡内基梅隆大学副教授Ruslan Salakhutdinov,而Siri则由高级副总裁Craig Federighi直接领导。 谷歌跳苹果还要降title? 不过,同样是AI负责人,他跳槽到苹果却把“副总裁”前面的“高级”抹掉了,与总裁们平级。难不成,谷歌跳苹果还要降title? 此后,他在谷歌的职责被分拆成了两部分——AI部分由大名鼎鼎的Jeff Dean负责,而搜索部分则转移到了副总裁Ben Gomes手下。
一、伦理审计基础认知 在AI系统快速发展和广泛应用的今天,伦理审计与合规性评估已成为确保AI负责任实施的关键环节。 确保算法公平性,评估和减少算法偏见,对于负责任的AI实施至关重要。本章将介绍AI系统中的算法公平性与偏见评估问题。 伦理审计的重要内容,确保AI系统的安全性,有效管理AI系统可能带来的风险,对于负责任的AI实施至关重要。 AI伦理审计的组织架构应包括: 伦理委员会:负责制定AI伦理原则和政策,监督伦理审计的实施 审计团队:由多学科专家组成,负责具体的伦理审计工作 技术支持团队:提供技术支持,协助审计团队开展工作 结论 AI系统的伦理审计与合规性评估是确保负责任AI实施的关键环节。
这些负责将 AI 进步和最佳实践引入支持产品的团队被称为『AI 创新中心』,」Andrew Bosworth 写道。 Meta AI 研究体系的部分组织结构调整包括: 负责任人工智能组织将加入社会影响团队。 致力于保护 Meta 平台用户、改进推荐系统并提高内容相关性,改进广告和商务服务的 AI 产品团队将转移到产品工程团队中。 AI4AR 团队将加入 Reality Labs 的 XR 团队。 FAIR 仍由 Joelle Pineau 和 Antoine Bordes 管理,LeCun 将与他们共同领导 FAIR,前两者负责管理实际工作,LeCun 则帮助制定战略。 分散组织的做法也引发了人们对 Meta AI 研究未来,甚至整个 AI 领域的担忧。