首页
学习
活动
专区
圈层
工具
发布

求是网 |薛澜:AI 治理,难在哪里?

在技术迭代加速、人工智能深度改变生产生活方式的当下,其带来的风险与挑战也日益凸显。人工智能应如何治理?治理的主体与对象是谁?又面临哪些瓶颈?

近日,伏羲智库高级顾问、清华大学苏世民书院院长、清华大学人工智能国际治理研究院院长薛澜教授在访谈中,系统阐述了人工智能治理的多维内涵、核心原则与当前难点。

人工智能治理涵盖三大功能,远超传统风险管控

薛澜教授首先界定了人工智能治理的完整内涵,指出其包含三个层面。首要功能是管控风险,即降低AI技术发展可能对社会产生的负面影响。第二项重要功能是“建构”,即为人工智能融入社会构建必要的基础设施。第三项功能则关乎市场构建与产业发展,即通过政策引导,塑造健康的市场结构,平衡大企业与中小企业的生态,从而影响整个产业的发展路径。

治理主体多元协同,对象覆盖研发与应用全链条

针对“谁来治理、治理什么”的问题,薛澜强调治理主体并非仅是政府部门。行业协会在制定技术标准、推动企业自律方面可发挥重要作用,社会公众也应参与其中,通过对伦理、政策偏好的表达,影响法规的形成。治理的对象则贯穿 AI 全生命周期:既包括从事技术研发的企业、高校与科研机构,也涵盖提供服务的平台企业、应用机构乃至最终使用技术的个人。因此,人工智能治理是一个需要政府、行业、社会公众及技术研发者、使用者共同参与的生态系统。

把握治理尺度:避免“一放就乱、一抓就死”

面对“先划定红线”还是“先鼓励探索”的争论,薛澜提出了“双轮驱动”的治理观。他指出,由于 AI 技术发展快、不确定性高,难以事先划定所有红线。治理的目的并非阻碍发展,而是为了更好、更可持续地发展。理想模式是“发展与治理两个轮子共同协调地向前推进”,在发展中动态识别与化解风险,避免“先污染后治理”或“运动式治理”带来的“一放就乱,一抓就死”的困境。他提倡“敏捷治理”,使治理规则能跟上技术进步的速度。

当前治理面临多重瓶颈,风险需分类应对

薛澜指出,当前 AI 治理的主要瓶颈在于如何实现“敏捷”以跟上技术迭代步伐,以及如何协调 AI 新应用与医疗、交通等现有领域法律法规的关系。此外,应对 AI 风险需分类施策。他将风险大致分为三类:一是滥用、恶用AI技术的有意为之的风险;二是技术自身故障导致的失控风险;三是如虚假信息泛滥、就业冲击、影响儿童心智等长远的社会影响。这些风险性质不同,需采取差异化的治理策略。

薛澜教授在访谈最后指出,构建全球人工智能治理框架需要各国共同参与讨论。尽管当前国际地缘政治复杂,中国正积极参与并努力推动相关国际合作。

END

注:文章来源于求是网、清华公管干部教育中心,转载请注明来源,敬请关注后续话题。另现围绕数字治理、数字发展领域,向广大业内资深撰稿人约稿,投稿邮箱:pr@fxzk.org,欢迎洽谈。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OgTTuUWuHSLuP6qf62k70VCg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券