瞭望 | 人工智能可能有自主意识了吗?( 三 )


郭雨晨说 , 人类在特定任务的学习过程中接触的数据量并不大 , 却可以很快学习新技能、完成新任务 , 这是目前基于数据驱动的人工智能所不具备的能力 。
梁正强调 , 不同于当前主要依赖大规模数据训练的技术路线 , 新一代人工智能强调在没有经过数据训练的情况下 , 可以通过推理作出合理反应 , 从而与没有见过、没有学过的事物展开交互 。
相比人类意识的自由开放 , 以往人工智能更多处在封闭空间 。尽管这个空间可能足够大 , 但若超出设定范畴便无法处理 。而人类如果按照规则不能解决问题 , 就会修改规则 , 甚至发明新规则 。
这意味着 , 如果人工智能能够超越现有学习模式 , 拥有对自身意识系统进行反思的能力 , 就会理解自身系统的基本性质 , 就有可能改造自身的意识系统 , 创造新规则 , 从而成为自己的主人 。
“人工智能觉醒”背后
有关“人工智能觉醒”的讨论已不鲜见 , 但谷歌迅速否认的态度耐人寻味 。
梁正表示:“如果不迅速驳斥指认 , 会给谷歌带来合规性方面的麻烦 。”
据了解 , 关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨 , 而关乎企业合规性的基本坚守 。一旦认定公司研发的人工智能系统出现自主意识 , 很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范 。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论 , 当系统接近并超过通用人工智能时 , 无法预料的或无意的系统行为将变得越来越危险且难以纠正 。并不是所有通用人工智能级别的系统都能够与人类利益保持一致 , 因此 , 当这些系统的能力越来越强大时 , 应当谨慎并确定不同系统的运行机制 。”
梁正认为 , 为避免社会舆论可能的过度负面解读 , 担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物 , 以“不作恶”为企业口号的谷歌自然会予以否认 。“不仅如此 , 尽管这一原则对企业没有强制约束力 , 但若被认为突破了底线 , 并对个体和社会造成实质性伤害 , 很有可能面临高额的惩罚性赔偿 , 因此企业在合规性方面会更为谨慎 。”
我国也有类似管理规范 。2019年 , 国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》 , 提出人工智能治理的框架和行动指南 。其中 , “敏捷治理”原则主要针对技术可能带来的新社会风险展开治理 , 强调治理的适应性与灵活性 。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示 , 当前人工智能治理面临的最大挑战 , 是我们没有一套比较成熟的体系来规制其潜在的风险 。特别是在第四次工业革命背景下 , 我国的人工智能技术和其他国家一样都处于发展期 , 没有现成的规制体系 , 这样就使得我们在发展科技的同时 , 必须同步发展我们的规制体系 。“这可能是人工智能发展面临最大的挑战 。”
在梁正看来 , 目前很难断言新兴人工智能技术具有绝对风险 , 但必须构造合理的熔断、叫停机制 。在治理中既要具有一定的预见性 , 又不能扼杀创新的土壤 , 要在企业诉求和公共安全之间找到合适的平衡点 。
毕竟 , 对人类来说 , 发展人工智能的目的不是把机器变成人 , 更不是把人变成机器 , 而是解决人类社会发展面临的问题 。
从这个角度来说 , 我们需要的或许只是帮助人类而不是代替人类的人工智能 。
瞭望 | 人工智能可能有自主意识了吗?