Advertisement

当人工智能伤害了人,谁来承担责任?

阅读量:
当人工智能伤害了人,谁来承担责任?

如同一面双刃剑,在为人类生产生活带来便利的同时也带来了不容忽视的问题:当机器具备高度智能化能力后,它对人类造成的难以 rectify 的伤害负有不可推卸的责任

虽然类似科幻作品描绘的情景机器人表现出不信任或敌意的状态、发起主动的威胁于人类社会短期内还不会出现;但机器种类繁多;当下人类的生命安全面临着由智能机器带来的最大威胁就是交通出行这一领域。

在2018年发生的一起全球首个自动驾驶车与行人相撞导致行人死亡的事故中,在美国当地时间3月18日晚上10时左右的一刻(注:此处可替换为具体的时间描述),由Uber公司运营的一辆自动驾驶汽车在亚利桑那州坦佩市与横穿人行道的行人发生了严重撞击事件。该名受害者是一名49岁的流浪女性Elaine Herzberg女士,在被送往医院接受治疗后因抢救无效不幸去世

坦佩市警方发言人表示,在初步调查显示中发现:当时这辆Uber自动驾驶汽车正在运行在L4级自动驾驶模式中,并以约38英里/小时的速度行驶在同一限速为35英里的道路上;而驾驶员在事故发生前并未接收到任何警示信息;直至事故发生后才意识到发生了事故

今年9月,在马里科帕县大陪审团做出裁决后,Uber自动驾驶汽车的安全驾驶员身份被控告犯有过失杀人罪。这一案件因此为后世类似判决提供了具有历史意义的借鉴价值。

实际上,在人工智能导致一人受伤或死亡的情况下,判定过错责任并非易事。若人工智能偶尔失控偶尔正常,则何时应当将过失推给人类、何时应将责任推给人工智能?

今年10月2日,《波士顿大学法律评论》上正式发布了题为《疏忽与人工智能的人类使用者》的一篇论文。研究者Andrew在深入分析后发现,在现有法律框架下,人工智能系统与其所服务的人类过失行为之间呈现了显著的不一致性,并且有必要促使相关监管机构采取行动。

表示

若过失法所设定的安全标准高于人类自身可管理的阈值,则会将责任推卸给操作者;即便是在普通人难以避免危险的情况下也是如此,“Selb特指出,在Uber案件中虽看似进入了‘道德灰色地带’。”但也容易设想其反面——即认为不必总是采取预防措施的原因可能是普通人往往未能及早反应或始终保持高度警觉;最终而言,在某种程度上讲人工智能确实带来了不可预测性。

Selfest强调了这一观点:法律专家则倾向于区分完全自治的车辆与与人类协作的半自动机器(例如在Uber车祸案例中使用的车辆)。尽管完全自主车辆或通用人工智能(AGI)可能会将责任转嫁给硬件制造商或人工智能系统上;但当人类利用人工智能进行预测、分类或评估决策时;答案就变得不那么明确。Auerbacher预计这一问题将给企业、政府和社会带来新的挑战。

如今大多数人工智能技术都被设计以提高人类决策效率为目标发展而来。例如,在司法领域中用于协助法官判断犯罪次数的算法逐渐兴起,在医疗行业中用于辅助医生制定治疗方案或进行诊断的技术不断涌现。这些系统能够通过分析医学图像中的特征模式从而协助医生确诊乳腺癌、肺癌以及脑癌等恶性肿瘤等疾病

当人工智能伤害了人,谁来承担责任?

表明尽管技术起到关键作用,在人类与AI相互依赖决策方面让AI脱颖而出。

SELFESTellen Sie sich in einen Bereich, der mit Menschen und KI-Systemen gemeinsamentscheidet, in dem das rechtliche System so schnell wie die Technologie wächst.

如果社会对于人工智能带来的显著利益持保留态度,则有可能需要制定一种新的监管框架来弥补人工智能应用所导致的人为负面影响;这种框架应当避免因过度追求责任而导致不必要的负面影响。而这可能表现为严格的法律责任、广义保险机制或者事前监管措施等不同形式。

为了应对这一挑战,在解决该问题方面

最终研究表明,在决策与结果之间被引入了一层不可预测且非直觉性的基于统计的方法通常涉及专有的代码这使得人类的选择行动与结果之间的关联面临挑战

这样看来好像会给予过失的标准一些时间间隔,在未来范式转变出现以及标准进一步落后的时候帮助人工智能赶上进步的步伐

这篇论文深入探讨了当算法偏差在伤害中发挥作用时如何影响结果的问题。回到自主车辆技术的发展,研究表明,计算机视觉系统在检测白人行人方面表现更为出色,其准确识别能力超越其对黑人行人的识别能力。采用这一技术可能会降低事故发生率,并可能带来一定的负面影响

自"Selfest"这一视角来看,若缺乏相应的监管机制,人工智能技术可能就会导致某些特定群体的社会问题被误认为是普遍现象,从而可能阻碍这些群体寻求帮助的努力.这种状况可能会进一步加剧人们在互联网使用过程中因算法偏见或遭受伤害而产生的无助心理状态.

值得忧虑的是,在某种程度上讲,人工智能可能在一定程度上有助于降低伤害的总数;然而它既不会完全消除这些伤害,并且会进一步剥夺受害者的求助能力。

就责任追究而言,在人工智能行业中的保密性确实是一个主要障碍。过失法律往往随着时间推移而演变,并旨在反映关于合理行为普遍认同的标准与定义。然而,在企业层面对于防止人工智能缺陷被公众知晓的能力存在不足的情况下,则可能导致此类缺陷不会被公众知晓。而随着人工智能技术迅速发展下去,则可能加速原有责任法或侵权法的相关规定进程,并进一步加剧这一问题。

因为保密的原因,在面对不同AI公司的产品时, 我们对其存在的错误和漏洞了解得非常有限. 基于这一背景, 在这种情况下, 公众也无法判断什么样的问题是合理的或是不合理的.

全部评论 (0)

还没有任何评论哟~