瞭望 | 人工智能可能有自主意识了吗?( 四 )
文章图片
文章图片
长沙华夏实验学校学生和机器狗互动(2022年6月22日摄) 薛宇舸摄/本刊
为了人机友好的未来
确保通用人工智能技术有益于人类福祉 , 一直是人工智能伦理构建的前沿 。
薛澜认为 , 在科技领域 , 很多技术都像硬币的两面 , 在带来正面效应的同时也会存在风险 , 人工智能就是其中一个比较突出的领域 。如何在促进技术创新和规制潜在风险之间寻求平衡 , 是科技伦理必须关注的问题 。
梁正提出 , 有时技术的发展会超越人们预想的框架 , 在不自觉的情况下出现与人类利益不一致甚至相悖的情况 。著名的“曲别针制造机”假说 , 即描述了通用人工智能在目标和技术都无害的情况下 , 对人类造成威胁的情景 。
“曲别针制造机”假说给定一种技术模型 , 假设某个人工智能机器的终极目标是制造曲别针 , 尽管看上去这一目的对人类无害 , 但最终它却使用人类无法比拟的能力 , 把世界上所有资源都做成了曲别针 , 进而对人类社会产生不可逆的伤害 。
因此有观点认为 , 创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为 。
与其对立的观点则认为 , 目前这一担忧为时尚早 。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识 , 现在谈论‘禁止发展’ , 有种空中楼阁的意味 。”梁正说 。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊 , 现实中人工智能技术伦理风险治理的关键 , 是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制 , 促成伦理风险识别与敏捷治理 。同时 , 企业内部也需建立完整的科技伦理自律机制 , 通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中 。
郭雨晨说 , 人工智能技术发展到目前 , 仍始终处于人类可控状态 , 而科技发展的过程本来就伴随对衍生问题的预判、发现和解决 。“在想象中的人工智能自主意识出现以前 , 人工智能技术脚踏实地的发展 , 已经造福人类社会很多年了 。”
在梁正看来 , 人与人工智能在未来会是一种合作关系 , 各自具备对方无法达成的能力 。“技术归根结底是由人类来发展和把控的 。人类和人工智能的未来 , 是由人类选择的 。”