瞭望 | 人工智能可能有自主意识了吗?

本文转自:新华社
瞭望 | 人工智能可能有自主意识了吗?
文章图片

文章图片

参会者在第六届世界智能大会上参观(2022年6月24日摄) 赵子硕摄/本刊
大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破 , 但距离具备自主意识还很远 。换言之 , 即便人工智能可以对人类的语言、表情所传递的情绪作出判断 , 但这主要应用的是自然语言处理、计算机视觉等技术
不同于当前依赖数据学习的技术路线 , 新一代人工智能强调在没有经过数据学习的情况下 , 可以通过推理作出合理反应 , 从而与没有见过、没有学过的事物展开交互
当前人工智能治理面临的最大挑战 , 是我们没有一套比较成熟的体系来规制其潜在的风险 。在发展科技的同时 , 必须同步发展我们的规制体系
“技术归根结底是由人类来发展和把控的 。人类和人工智能的未来 , 是由人类选择的 。”
文 |《瞭望》新闻周刊采访人员 于雪 魏雨虹
今年6月 , 美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识 。他认为 , LaMDA拥有七八岁孩童的智力 , 并相信LaMDA正在争取自己作为一个人的权利 。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型 , 主要功能是可以与人类交谈 。
为佐证观点 , 勒莫因把自己和LaMDA的聊天记录上传至互联网 。随后 , 谷歌以违反保密协议为由对其停职 。谷歌表示 , 没有任何证据支持勒莫因的观点 。
【瞭望 | 人工智能可能有自主意识了吗?】事实上 , “AI(人工智能)是否拥有自主意识”一直争议不休 。此次谷歌工程师和LaMDA的故事 , 再次引发讨论 。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨
勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象 , 既会担忧未来 , 也会追忆过去 。
受访专家告诉《瞭望》新闻周刊采访人员 , 上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文 , 进行高精度的人类对话模拟 , 故能应对人类开放、发散的交谈 。
至于人工智能是否已经具备自主意识 , 判定标准如何 , 受访专家表示 , 对人类意识的探索目前仍属于科技前沿 , 尚未形成统一定义 。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识 , 是因为人知道自己在干什么 。机器则不一样 , 你对它输入内容 , 它只是依照程序设定进行反馈 。”
中国社会科学院科学技术哲学研究室主任段伟文认为 , 一般意义上 , 人的自我意识是指对自我具备觉知 , 但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题 , 这也是很难明确定义人工智能是否具备意识的原因 。
被誉为“计算机科学与人工智能之父”的艾伦·图灵 , 早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份 , 那么可以称这台机器具有智能 。
这一设想随后被具化为 , 如果有超过30%参与测试的人以为自己在和人说话而非计算机 , 就可以认为“机器会思考” 。
当前随着技术的发展 , 已经有越来越多的机器能够通过图灵测试 。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊采访人员 , 图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同 , 却不能证明机器能够思考 , 更不能证明机器具备自主意识 。