霍夫曼对话李飞飞:如何建立以人为本的人工智能(一)

神译局是36氪旗下编译团队 , 关注科技、商业、职场、生活等领域 , 重点介绍国外的新技术、新观点、新风向 。
编者按: 在过去十年中 , 人工智能正迅速成为人类社会、经济活动以及科学发现不可或缺的工具 。尽管这些发展令人印象深刻 , 尽管这些技术已经改变了我们的生活 , 但人们普遍认为 , 人工智能可以赋予个人和社会力量 , 创造难以想象的机会来改善人类的整体体验和生活质量 , 也可以创造工具来摧毁社会 , 奴役个人 , 将权力和财富集中在少数人手中 , 这取决于这场技术革命的进程 。LinkedIn创始人里德·霍夫曼与知名美籍华裔院士李飞飞进行了一场对谈 , 关于构建人工智能也需要考虑的伦理因素 , 以及如何才能以人类为中心建立人工智能 。原文标题Human-Centered AI 。
相关文章:
霍夫曼对话李飞飞:如何建立以人为本的人工智能(二)
霍夫曼对话李飞飞:如何建立以人为本的人工智能(三)
霍夫曼对话李飞飞:如何建立以人为本的人工智能(一)
文章图片

文章图片
从错误中学习是人类最重要的技能之一 。理想情况下 , 这种知识会随着时间的推移而不断发展 , 以至于我们可以防止或减轻未来犯的错误 。
但计算机的发展速度远远超过了人脑 。近年来 , 人工智能系统以极快的速度发展 , 为关键的数据洞察力服务 。但是 , 要通过编程来实现人类从错误中学到的情感、社会背景和整体道德考虑的细微差别 , 则要难得多 。很多时候 , 人工智能中产生的意外负面影响 , 例如在招聘、住房或法律援助的人工智能工具中的种族、性别或社会经济偏见 , 一直到出现之后才能知道其原因 。
如果人工智能要为人类的集体需求服务 , 那么应该如何构建和设计机器智能 , 使其能够理解人类的语言、情感、意图和行为 , 并进行细微和多维的互动?
斯坦福大学计算机科学教授李飞飞博士说 , 这甚至在技术开发之前就开始了 。她是斯坦福以人为本人工智能研究所(HAI)的联合创始人和联合主任 。该组织致力于推动人工智能的研究、教育、政策和实践 , 以改善人类状况 。6月 , HAI推出了伦理与社会审查委员会 。该计划在去年进行了试点 , 要求人工智能研究人员在获得HAI的资助之前 , 考虑其项目的伦理问题 。
“从根本上说 , 我们如何创造这种技术 , 如何使用这种技术 , 如何继续创新 , 但也要设置正确的护栏 , 取决于我们为人类做的事情 。”李博士说 , 她还担任过斯坦福大学人工智能实验室主任 , 此前在2017至2018年斯坦福大学休假期间 , 她在谷歌担任副总裁和谷歌云的AI/ML的首席科学家 。
李博士最近在与Greylock的里德·霍夫曼一起讨论了研究人员、技术专家和政策制定者在开发和部署人工智能时关于伦理的考虑 。
在对话中 , 李博士和霍夫曼探讨了当今广泛的人工智能景观 , 包括人工智能的实际应用;学术界和行业领导者如何与联邦政府合作推进人工智能研究;以及李博士作为非营利组织AI4ALL的联合创始人和董事会主席的工作 。
里德·霍夫曼:
感谢大家加入我们今天的对话 。我很高兴介绍我的朋友李飞飞博士 。她是斯坦福大学计算机科学的红杉教授 , 也是斯坦福以人为本人工智能研究所(HAI)的联合主任 。
在2019年创立HAI之前 , 她曾担任斯坦福大学人工智能实验室的主任 。在2017年至2018年斯坦福大学休假期间 , 她是谷歌的副总裁和谷歌云的AI/ML的首席科学家 。
她还是名为AI4ALL的全国性非营利组织的联合创始人和董事会主席 , 该组织专注于培训贫困社区的不同K-12学生 , 帮助他们成为明天的AI领袖 。我们都知道这一点超级重要 , 谢谢你 。