伦理即服务:科技伦理与可信AI的下一个浪潮( 四 )


第一 , 立足决策稳健 , 提供风险评估服务 。Parity AI公司为AI企业提供开发、监测和修复其人工智能模型的工具方法 , 主要聚焦于缓解偏见、实现公平、可解释性以及伦理审计 。在审计方面 , Parity AI创建了一套能够缩减伦理审计时间的工具 , 该工具的运行模式为 , 根据客户需求确定人工智能模型审计的内容 , 进而提供相关建议 , 而且Parity AI帮助AI企业组织审计的全过程 。审计过程中 , 首先协助AI企业进行内部影响评估 , 在AI企业内部针对人工智能业务进行开放式调查 , 在这过程中可以采用由Parity AI公司所建立的建议问题库 , 其中包含超过一千个来自世界各地区AI伦理准则或相关立法的提示词汇及相关问题;在开放调查的基础上 , Parity AI会提出相关伦理风险缓解的推荐与建议 。在此过程中 , Parity AI能够帮助专门的技术人员更好地理解AI伦理的原则与要求 。
第二 , 立足决策透明 , 提供可解释性服务 。2018年成立的Fiddler公司致力于实现AI可解释的目标 , 为解决模型可解释性、模型监控以及模型偏差检测等问题 , 开发出一套机器学习模型性能管理工具 (ML Model Performance Management , MPM)。该工具的作用在于能够有效降低算法模型的黑箱性风险 , 并实时对模型的参数进行持续监控 , 帮助AI开发者验证模型、解释模型性能以及记录模型指标 。同时 , 由于机器学习模型的预测质量可能会随着时间的推移而下降 , 当用于算法运作的数据和实际使用的数据不相一致时 , 就会产生模型漂移 (model drift) 的问题 。基于此 , MPM工具还能帮助数据科学团队跟踪人工智能模型不断变化的性能 , 并根据结果为业务主管创建高级别报告 , 如果该模型的准确性随着时间的推移而恶化 , 或者显示出偏见倾向性 , Fiddler亦可帮助该人工智能系统调试及发现可能的原因 。
伦理即服务:科技伦理与可信AI的下一个浪潮
文章图片

文章图片
图三:MPM工具的运作机制
在定位上 , MPM工具并不会替代现有的机器学习训练、部署以及服务系统 , 而是在机器学习流程中扮演守夜人的角色 , 旨在对模型运作的全程进行监控和解释说明 。具体而言 , MPM具有两方面的作用:一是偏离度监测(Detect Train/Serving Skew) 。当机器学习的数据发生偏离时 , 训练模型会出现异常并需要纠正 , MPM工具能够将训练数据和预测日志保存在同一个地方 , 使得开发者可以及时发现偏离 。二是时间回溯(Time Travel) 。MPM工具能够为用户提供程序倒查的功能 。Fiddler官方为此举了一个形象的例子 , 当银行使用机器学习算法来驳回客户的特定贷款申请 , 而招致客户的投诉和抱怨时 , 使用者就可以登录MPM系统 , 就其保存的数据为客户还原模型的预测和决策过程 , 从而达到AI可解释的效果 。
Arthur公司与Weights & Biases公司同样强调可解释性和缓解偏见、实现公平性 。Arthur公司努力解决人工智能系统中的黑盒问题 , 并且承认解决人工智能可解释性问题有较高难度 , 目前并未形成最优解决方案 。Weights & Biases公司旨在帮助机器学习工程师分析其网络的潜在问题 , 日本丰田公司已经在使用Weights & Biases公司所创建的工具来监测其企业内机器学习设备的训练情况 。
第三 , 立足决策公平 , 提供算法修复服务 。针对AI决策层出不穷的算法歧视问题 , 埃森哲公司致力于开发出一款能够快速评估数据是否创造公平结果的伦理工具(fairness tool) 。该工具运用一种能够定义公平性的统计算法来识别人们是否受到了算法的不公正对待 , 同时还会挖掘、分析、定义公平性相关的敏感变量 。例如 , 算法在做决策时通常不会考虑性别问题 , 但如果加入收入因素的考量 , 就会容易在男女性别间产生不同的决策结果 。该工具会将此类相关信息纳入公平性的评估范畴 , 同时还要关注每个决策变量的错误率 , 通过比较不同变量之间的错误率 , 分析出影响决策公平性的变量因素 。同时 , 此前的研究表明 , AI伦理对于公平性的界定存在多达21种类型的解释方法 , 因此 , 很难对不同场景下的公平性作出统一定义 。尽管埃森哲的伦理工具能够减少影响公平性评估的错误因素 , 但考虑到修复程序可能会降低算法评估的准确性 , 因此该工具将是否调整参数的决定权交还给用户 , 也即只提供修复结果的权衡选择(trade-off) , 但最终交由用户来决定错误因素的调整范围 。