利用隐私数据探测用户情绪,苹果引发争议( 二 )
2019年 , 一组研究人员在学术期刊《公共利益中的心理科学》上发表了一篇论文 , 阐述了情感人工智能面临的挑战 。他们写道:“不管算法有多复杂 , 仅仅通过分析面部运动来‘读取’人们的内心状态 , 而不考虑所处环境等各个方面 , 说好听点这叫不成熟 , 说难听点就是根本无效 。”在这篇论文中 , 研究人员呼吁人们对这一技术进行更深入的研究 , 探索人们在不同情况下是如何利用面部动作来展示或掩盖内心情绪的 , 以及人们是如何根据他人的面部表情来推断他人的情绪的 。
随着越来越多像苹果这样的科技公司开始对这项技术进行投资 , 情感人工智能的可靠程度将会产生巨大的影响 。去年8月 , 亚马逊推出了一款可穿戴健康设备 , 它的功能就是检测你的声音的情绪语调 。而在《自然》上的一篇文章中 ,Crawford呼吁国家需要制定强有力的法律来确保情感人工智能应用背后的科学是严格且透明的 。曾经 , 测谎仪这一并不可靠的技术被使用了几十年 , 在造成了巨大的损害之后才被证明是不可靠的 , 因此 , 在这份报告中 , 她认为情感人工智能技术还需要进行完善 , 而测谎仪就是前车之鉴 。
Tsukayama说 , 各大公司有责任明确地说明这项技术的能力与缺陷 。在检测抑郁症的案例中 , 公司需要做的不仅仅是向用户说明人工智能的评估仅具有参考价值 , 还需要考虑外行人会对这项功能进行怎样的解读 。“他们会觉得有了这项技术就可以不用去看医生了吗?”“他们会觉得这项技术已经成熟到可以让他们进行自我疗愈了吗?”这些误解都有可能对用户造成伤害 。
技术律师、新罕布什尔大学法学院的助理教授Tiffany C. Li说 , 她认为苹果公司的研究对医学发展可能会有帮助 , 但“重要的是我们需要建立保护机制 。”她对情感人工智能的担忧是 , 这项技术将会使用大量的个人数据 , 如果联邦隐私立法中不包含对人们生物特征数据的保护 , 那么消费者对他们的数据的使用、处理和存储方式会失去自主权 。
文章图片
文章图片
图片来源:Pexels
苹果公司正与一项学术研究合作测试抑郁症检测 , 该研究对透明度和参与者的知情同意有着严格的规定 。《华尔街日报》在其报告中指出 , 加州大学洛杉矶分校和苹果公司的研究可能永远不会被用于面向消费者的应用程序 。这项研究从2020年开始 , 为期三年 , 在下一阶段 , 实验样本将扩大到3000人 。不过 , 苹果公司对情感人工智能的研究是该领域正在加速发展的迹象 , 评论人士认为 , 随着技术的普及 , 必须出台更有力的监管制度 。
Tsukayama说:“如果你想使用这项算法来帮你做关键的决定 , 你就得确保它是透明的 , 是可以被审计、可被证伪的 。”“你要确保它有基本的责任制度 。”
译者:扣人心
【利用隐私数据探测用户情绪,苹果引发争议】来源:36氪
- canalys公布2021年全球个人电脑市场数据
- 水泥外加剂与固废利用息息相关
- 七款新品集中亮相,数说故事超前布局「数据驱动+AI 赋能」应用闭环
- 一纵一横,搭建完整数据分析体系
- 中国再次领先全球,利用二氧化碳就能发电,颠覆140年发电方式
- 精灵魔塔数据互不互通(精灵魔塔ios安卓互通问题说明)
- 利用哈勃望远镜,我们能够看到130多亿年前的宇宙
- 复苏的魔女官服和渠道服可以互通吗(复苏的魔女游戏数据互通问题说明)
- 上海空调清洗消毒大数据平台全新升级
- 杭州亚运会官方智能物联及大数据服务赞助商签约发布
