gpt-3是人工智能的一个重要因素( 三 )


相比之下 , 普通AI机器 , 只能完成物品识别、剂量确认等单个、简单的任务 , 而不具备举一反三、推理能力 。
对于AGI , 业内出现了严重分歧 。一派以OpenAI为首 , 笃信AGI是未来 , 不惜花下血本 , 一派如Meta , 对AGI概念并不感冒 。
OpenAI认为 , 强大计算能力是迈向AGI的必经之路 , 也是AI能够学习人类所能完成的任何任务的必经之路 。
其研究表明 , 2012至2018年6年间 , 在最大规模的人工智能模型训练中所使用的计算量呈指数级增长 , 其中有3.5个月的时间计算量翻了一倍 , 比摩尔定律每18个月翻一倍的速度快得多 。
在强大计算力的加持之下 , OpenAI模型也得以越炼越大 。据透露 , GPT-4的尺寸将超过GPT-3的500倍 , 将拥有100万亿个参数 。相比之下 , 人类大脑有大约80-1000亿个神经元和大约100万亿个突触 , 也就是说 , 下一代AI大模型 , 参数数量级将堪比人类大脑突触的水平 。
OpenAI的首席科学家IlyaSutskever在2020年表示 , “到2021年 , 语言模型将开始了解视觉世界 。仅文字就可以表达关于世界的大量信息 , 但它是不完整的 , 因为我们也生活在视觉世界中 。”
这也许是下一代AI大模型最大的看点所在——其将不仅能处理语言模型 , 大概率将更是一个能处理语言、视觉、声音等多任务的多模态AI模型 。
而这也意味着 , AI大模型距离能够多任务处理、会思考的通用人工智能更近了一步 。
与OpenAI相反 , Meta人工智能副总裁罗姆?佩森蒂 , 掌管着数百名科学家和工程师的资深高管 , 自始至终对AGI不感兴趣 。他认为 , 人类的智力本身就不是一个统一的问题 , 更不会有真正的模型能靠自己不断进化智力 。“即便是人类都不能让自己变得更聪明 。我认为人们对AGI的追捧有点像是对某种议程的追捧 。”
反对者可以找到更多的佐证理由 。2010年 , DeepMind创始人德米斯·哈萨比斯提出了两种接近AGI的方向:
一是通过描述和编程体系模仿人类大脑的思考体系 , 但操作难度太大 , 没有人能描述清楚人脑的结构;
二是以数字形式复制大脑物理网络结构 , 但即便是还原大脑物理功能 , 也无法解释人类思考的运转规则 。
不管是效仿大脑结构 , 还是试图描述清楚人类智慧的原理 , 都迈不过“因果关系推理”的鸿沟 。迄今为止 , 没有一个AI模型突破这一难题 。
AI大模型能带来强人工智能吗?当模型参数一次次被突破 , 达到远超人脑突触的数量级时 , 也许会出现突破“因果关系推理”难题的“奇点” , 带领我们进入强人工智能时代 , 但也许这仅仅是一个幻想 。
不过目前 , 看起来 , AI大模型是通往强人工智能最有可能的一条通道 。赌一次 , 值了 。