什么是负责任的人工智能
「AI秘籍」系列课程:
可直接在橱窗里购买,或者到文末领取优惠后购买:
拥有权利的同时也被赋予了重大的责任
有些人会被人工智能这个词启发去思考进步与生产力。
而另一些人则对前景表示担忧。
这些担忧有其合理之处,并涉及如不公正决策、劳动力替代以及隐私与安全问题等。
然而更糟糕的是,在现有技术条件下存在的一些问题却是专属于人工智能领域的。
这意味着现有的指导原则和法规无法有效应对这些问题。
这就是负责任的人工智能体系存在的必要性所在。

为什么我们需要负责任的人工智能
当我们谈到人工智能时,我们主要指用于执行特定任务的计算系统,这些系统通过机器学习来模仿人类智能行为。例如,自动驾驶汽车能够利用传感器捕捉环境信息。在处理这些数据时,机器学习算法能够识别出特定特征(比如前方有一棵树)。基于这些识别结果,车辆会采取相应的行动(如转向避让)。我们将这样的集成系统统称为人工智能
仅仅作为一个案例。人工智能不仅能够应用于保险承保等常规业务领域,在医疗健康、金融投资等多个新兴行业都展现出强大的应用前景。主要体现在系统的决策几乎完全由自动流程主导,在此过程中很少出现人为干预的情况。然而这也可能引发一系列潜在问题因此相关企业必须制定清晰的标准和操作规范以确保风险可控负责任的人工智能体系旨在构建一个规范化的治理体系

该方案涵盖收集与利用何种数据、评估方法以及最优部署与监控细节。
各公司可能拥有不同的方案设计。
一些公司会设定具体的实施细节,另一些则更易于理解。
他们都致力于创建可解释性、公平性、安全性和保护用户隐私的人工智能系统。
负责任的人工智能的目标
首要探讨的领域是[可解释性]。通过解析一个模型的过程,我们能够深入了解其预测机制。人工智能系统可能以两种方式对你提出问题:要么拒绝你的抵押贷款申请,要么诊断你患有癌症。即便这些决策看似合理和正确,在某些情况下,用户依然有权利要求详细的说明和理由。某些特定类型的模型在复杂性和可理解性方面表现更为出色,因此在获取合理的解读方面具有显著优势。作为负责任的人工智能开发者和实施者,应当明确我们的目标是以清晰的方式建立可解码的框架,并在必要时考虑引入适当的辅助工具来提升整体系统的透明度与可靠性。

与其相关的是公平性 的模型 。 人工智能系统可能会基于训练数据中的偏差作出歧视某些群体的决策 。 这些偏差往往源于训练数据中固有的偏差 。 通常情况下,在提高模型的可解释性方面取得的进步有助于减少潜在偏差并修复可能存在的不公 。 我们仍然需要一个负责任的人工智能体系来明确我们如何评估和管理公平性,并制定应对不公平预测的具体措施 。 尤其是在采用不可靠或不透明的人工智能系统进行决策时更为关键 。
安全与保障是新增的一个重要问题。这些问题对于软件开发人员并不陌生,在实际应用中也屡见不鲜。值得注意的是,在一般计算机系统中存在一个明确的行为模式,在这种情况下系统的反应也是可预测的且有规律可循的。然而,在人工智能领域则呈现出完全不同的特性:当遇到新情况时,它们可能会作出不可预见的决定;系统甚至有可能被操控导致错误决策。
隐私与数据治理是最后一个问题。所使用数据的质量至关重要。若人工智能使用的数据存在错误,则可能导致系统作出错误决策。通常情况下,人工智能不应被允许处理敏感信息(如病历记录、员工会员资格等)。根据[GDPR]1的规定,在欧洲国家中这些问题得到了妥善处理。对于欧洲以外的国家而言,则需由相关企业自行建立负责任的人工智能框架来应对。隐私和数据治理是人工智能发展中的重要议题。

从根本上说, 一切都可以追溯到信任. 当用户对人工智能缺乏信心时, 他们就无法有效利用我们的服务. 我们将不认可那些依赖于我们不愿透露信息的数据源或可能产生偏见的系统. 如果我们的系统被认为可能会伤害到人们的身体, 自然会被视为不可信赖. 理解这些决策及其后果有助于增强用户的信赖.
这种对于信赖的需求, 正是推动人工智能公司进行自我监管的关键动力.
负责任的人工智能的未来
就目前情况来看,在人工智能领域中企业都面临着自我监管的必要性。这意味着它们都必须制定并严格执行自己的一套负责任的人工智能准则。而像谷歌、微软和IBM这样的大公司已经建立了自己的标准和规范。然而一个关键的问题在于,在不同行业中对负责任的人工智能原则的应用可能存在差异。对于规模较小的企业而言,他们往往缺乏足够的资源来制定和维护属于自己的责任型人工智能标准。
一种可能的方案是要求所有企业遵循同一标准;作为参考,《 人工智能伦理规范指南 》于近期发布;它列出了实现可信AI所需的七个关键要素;通过遵循这些标准,企业将能够更好地管理其AI技术的发展与应用;真正的问题在于:企业能否自主监督自己的AI发展?

该报告包括了374家从事数据与人工智能相关工作的组织提供的反馈意见。
其中75%的企业认为人工智能是其核心业务。
然而仅有25%的企业认为公平的人工智能同样重要。
这一结论并不令人满意;我们必须确保这些原则得到执行。
换句话说,则必须将其转化为法律或法规的形式,并对违反这些规定的公司实施相应的惩罚措施。
无疑人工智能需要接受监管。采用最理想的方式解决这一问题——这是谷歌首席执行官的观点。
I believe this indicates the correct path forward. Europe has introduced regulations that stem from these ethical guidelines. These regulations will affect multiple industries. Currently, the United States hasn't introduced such regulations. However, executives from tech giants such as Google, Facebook, Microsoft and Apple have called for greater regulation of data and artificial intelligence. Thus, it appears that this issue will eventually be resolved.
我们讨论了算法的公平性。它构成了负责任的人工智能体系的关键要素,并可能会被许多人工智能监管机构视为关注的重点。这一话题本身就具有极高的趣味性,在《什么是算法公平性》这篇文章中进行了深入探讨。
负责任的 AI 框架示例
[谷歌]2|[微软]3| [IBM]4|[欧盟委员会]5
其他参考
D. Pessach & E. Shmueli, Algorithmic Fairness (2020), https://arxiv.org/abs/2001.09784
A. Gillis, accountable AI (Year 2021), https://searchenterpriseai.techtarget.com/definition/responsible-AI
Accenture published Responsible AI: A Framework for Building Trust in your AI Solutions (2018), accessible at https://www.accenture.com/_acnmedia/PDF-92/Accenture-AFS-Responsible-AI.pdf.
Author’s The 2020 AI and Machine Learning Report, published in 2020 at [link].
K. Walch’s AI Laws Are Emerging was published in 2020.
S. Schechner & V. Pop, Google has proposed innovative solutions for a framework for regulating AI technology in 2020, https://www.wsj.com/articles/google-pushes-sensible-ideas-for-how-to-regulate-ai-11579521003?mod=article_inline
A. Satariano, Europe has introduced rigorous regulations on Artificial Intelligence (2021), https://www.nytimes.com/2021/04/16/business/artificial-intelligence-regulation.html?smtyp=cur&smid=tw-nytimes
-
GDPR: https://gdpr.eu/ ↩︎
-
谷歌: https://ai.google/responsibilities/responsible-ai-practices/ ↩︎
-
Microsoft: https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3Aprimaryr6 ↩︎
欧盟委员会: https://digital-strategy.ec.europa.eu/en/library/ethical guidelines for responsible AI ↩︎
