特斯拉的自动驾驶:伦理与悲剧

作者

摘要

本案例研究深入探讨了涉及特斯拉自动驾驶的事件所产生的伦理后果,强调了特斯拉公司在道德上的责任。通过七步伦理决策流程,本文审视了用户行为、系统约束以及监管影响。此事件促使人们对汽车行业采纳自动驾驶技术所面临的伦理挑战进行更广泛的评估,呼吁重新考虑行业规范和法律框架。该分析简明地探讨了在技术发展不断变化的背景下的伦理考量。

arXiv: 2409.17380 (v1) — abs: https://arxiv.org/abs/2409.17380, html: https://arxiv.org/html/2409.17380v1, pdf: https://arxiv.org/pdf/2409.17380

目录

[TOC]

I 引言

美国每年有数百万起车祸,主要因人为错误导致,造成35,000人死亡、损失超过8710亿美元 [1]。为解决此问题,特斯拉率先推出“自动驾驶”之类的自动驾驶系统,旨在消除人为错误和车辆操作员的需求。自动驾驶技术的快速发展正在重塑交通格局,提供更高的便利和安全,但也带来道德困境,典型例子是Joshua Brown与特斯拉自动驾驶系统之间的致命事故 [2][3]。Brown先生于2016年5月7日突然死亡,原因是他的特斯拉Model S在自动驾驶模式下与一辆拖拉机-卡车相撞,这一事件凸显了与新技术前沿相关的伦理担忧,尤其当涉及人类生命时。

特斯拉报告称,在超过1.3亿 Autopilot 里程中首次记录到死亡事件,这与美国道路上大约9400万英里的死亡间隔形成了显著对比 [4]。国家公路交通安全管理局(NHTSA)发起了评估,强调需要确定该技术是否按预期运行。特斯拉随后及时向 NHTSA 通报了一个特殊事件:在一条双向高速公路上,一辆拖拉机-货车横跨道路,导致 Model S 在其下方行驶并撞击挡风玻璃。

事故发生在约书亚·布朗的 Model S 向东行驶在佛罗里达北部的 US-27A 双向高速公路时。一辆在相反方向行驶的拖拉机-货车在特斯拉前方转向左侧。特斯拉处于 Autopilot 模式。根据特斯拉公司的说法,‘Autopilot 和驾驶员都没有注意到拖拉机的白色侧面与明亮的天空相映衬,因此没有刹车’ [5]。拖车离地面足够高,车辆继续驶下,导致车顶被切割。车辆驶离道路,撞击两道围栏和一根电杆后停下。

约书亚·布朗与特斯拉 Autopilot 系统发生致命碰撞的核心问题在于自动驾驶技术的伦理含义。尽管被标记为 Autopilot,特斯拉在实施和宣传需要持续人工监督的系统时,其伦理责任引发了关于用户意识、安全预防措施以及从驾驶员辅助到部分自动化的道德转变的担忧。非伦理层面,如技术和法律限制,增加了复杂性,需要对 Autopilot 系统的运作和监管框架进行仔细分析。本文运用七步伦理决策框架 [6],全面审视特斯拉作为自动驾驶技术领导者的道德责任。除了案例细节,分析还强调了对汽车行业的重大影响,强调将道德原则和法律体系与技术进步相匹配的重要性,在人机共享道路的未来。

II 伦理决策框架

驾驭特斯拉 Autopilot 系统的道德复杂性需要细致的关注。本节采用了本研究所使用的结构化七步流程,分析自动驾驶技术的道德影响,这些步骤在 I 引言、II-A 收集和评估相关事实、II-B 确定利益相关者、II-C 制定五个选项列表、II-D 测试选项以及将第六步和第七步(即临时和最终选择)结合,以在 V 结论中解决问题。继约书亚·布朗(Joshua Brown)的悲剧事件之后,本框架中的每一步都作为工具来阐明特斯拉汽车的道德责任,为指导动态技术创新领域的道德决策提供超越案例具体细节的洞见。

II-A 收集和获取相关事实

多项学术研究探讨了自动驾驶汽车开发的伦理方面,主要强调为这些系统注入人类伦理标准 [7][8]。这些研究比较了人们面临的伦理困境和广泛采用自动驾驶汽车所可能遇到的障碍。然而,这些讨论中存在一个关键缺口,因为它们往往需要更深入地分析设计过程以及人们如何将自己的道德原则融入技术,从而影响社会如何与之互动和使用。

一项具体研究,“自动驾驶汽车事故的伦理:路线图”(The Ethics of Crashes with Self-Driving Cars: A Roadmap)[9]深入探讨了谷歌、优步(Uber)和特斯拉等知名科技公司在自动驾驶车辆测试初期阶段的情况。作者指出,这些公司对自身承担责任程度以及车辆在即将发生道德困境时应如何处理持有不同观点。作者认为,这些矛盾表明需要更明确定义的伦理协议和对自动驾驶汽车的准备。具体而言,作者强调在可能导致致命后果的事故情境中,车辆算法缺乏标准操作指南。在讨论自动驾驶汽车的事故算法时,作者警告不要忽视基本的道德和法律问责问题。

另一项研究《自驾车辆 - 伦理概览》[10],探讨了在拥有自动驾驶车辆的道路系统中可能出现的责任空白。作者认为,仅将责任归咎于可能无法控制自动驾驶车辆的车主是具有挑战性的。责任不仅仅局限于制造商的指导方针或车辆的智能系统。由于各种不同的情况和损失,确定车祸责任变得复杂。论文强调社会决策对伦理后果的显著影响,并强调在自动驾驶汽车技术中采用系统化伦理方法的必要性。

尽管这些学术研究对人工智能与自动驾驶可能产生的道德难题提供了深刻的分析,但仍然存在关于如何将伦理考量融入设计的关键空白。

II-B 识别利益相关者

识别决策所影响的广泛个人和实体的范围对于确定特斯拉自动驾驶技术的利益相关者至关重要。主要利益相关者包括特斯拉汽车,即技术的创造者和生产者,他们在涵盖产品设计、市场营销和用户说明的伦理考量上具有重要利益。投资者和股东也是重要的利益相关者,因为与自动驾驶相关的道德选择会影响公司的声誉和财务表现。

自动驾驶用户是重要利益相关者,因为该系统直接影响他们的安全。公众和更广泛的客户群体也受到影响,因为它对社会规范、公众信任和道路安全具有影响。立法者和监管机构在制定管理自动驾驶车辆使用的法律方面也具有重要利益。

在自动驾驶领域的竞争者,例如汽车制造商和科技公司,也受到特斯拉决策的影响,成为利益相关者。

针对本案例研究,其他具有影响力的利益相关者包括约书亚·布朗的家人,即自动驾驶相关事故的受害者,为伦理问题提供了人性化的面貌。

在社会层面,倡导消费者权益、技术伦理和道路安全的团体和组织支持自动驾驶中的道德行为。

最后,作为与自动驾驶汽车同行的道路使用者,行人是受到潜在问题或故障影响的重要利益相关者。

II-C 选项列表

以下选项为特斯拉汽车提供了多种方法,以解决自动驾驶所提出的道德困境。每个选择都有其自身的优点和缺点,结合这些策略可以彻底解决复杂的伦理问题。

II-C1 提升用户教育与意识

提供全面的培训资源,以确保自动驾驶的用户了解系统的所有功能和限制。 此外,在开启自动驾驶前,确保用户完成必要的测试或培训课程。 强调在系统运行期间保持警觉和参与的重要性。 大量研究还表明,事故的主要原因之一是用户缺乏教育 [11][12]。

II-C2 限制自动驾驶在特定驾驶情境中的使用

实施软件更新,限制自动驾驶在特定驾驶情境中的使用,例如仅在高速公路或明确定义的道路上使用。 为确保在具有挑战性或危险的区域中更安全使用,地理围栏技术会创建虚拟限制区域,在这些区域内自动驾驶功能会被自动禁用。

II-C3 安装更先进的驾驶员监控系统

许多特斯拉车主在访谈中([13])承认,当自动驾驶系统开启时,他们会变得越来越自满——这是一种可能致命的疏忽,给个人和环境都带来后果。为了解决这个问题,可以升级自动驾驶的驾驶员监控系统,确保驾驶员持续保持专注。利用先进技术,例如人脸识别和精准方向盘传感器,准确评估驾驶员注意力。部署高分辨率摄像系统,周期性捕捉驾驶员的照片。将这些图像通过专门训练的神经网络模型处理,以分类不同程度的注意力水平。神经网络的输出将作为响应式警告和报警系统的基础。当检测到注意力下降的迹象时,系统将触发实时警报,确保立即通知驾驶员。这一技术方案融合了尖端的人脸识别、传感器技术和神经网络决策,实现精准及时的响应。这一改进方案提供了技术上更为复杂的驾驶员监控方法,增强了自动驾驶安全机制,提升了准确性和响应性。

II-C4 与监管和行业组织合作

通过与其他汽车制造商、科技公司和政府机构合作,共同制定行业范围内的自动驾驶技术标准。积极参与论坛和项目,确立道德标准和创建与实施自动驾驶系统的最佳实践。

II-C5 通过用户输入持续改进

为自动驾驶用户提供可靠的反馈渠道,让他们分享使用体验并评论系统的运作方式。以用户反馈为基础进行持续开发,修改自动驾驶系统以解决新的道德困境并提升安全性。

II-D 测试选项

II-D1 宣传测试

II-D2 危害测试

II-D3 可防御性测试

II-D4 可逆性测试

II-D5 美德测试

II-D6 同事测试

II-D7 专业测试

II-D8 组织测试

III 特斯拉自动驾驶的技术方面

特斯拉的自动驾驶严重依赖计算机视觉、传感器融合和神经网络的组合,以解释并响应驾驶环境。主要技术包括用于物体检测、车道检测和决策的深度学习模型,这些模型与摄像头、雷达、超声波传感器和激光雷达等硬件组件相互作用。

III-A 自动驾驶中的神经网络

特斯拉自动驾驶系统的核心是一种多层卷积神经网络(CNN),在海量驾驶数据上训练。CNN负责识别道路上的物体,例如车辆、行人和道路标志。该系统还使用循环神经网络(RNN)进行时序数据处理,分析帧序列以预测运动和轨迹。

这些模型在多种驾驶条件下训练,构成 Autopilot 决策过程的基础。神经网络接收来自摄像头和其他传感器的实时数据,帮助车辆识别物体,分类其相关性(例如,行人与车辆),并做出毫秒级决策。

III-B 当前机器学习模型的局限性

尽管这些模型很先进,但数据集覆盖范围和极端情况的局限导致了像约书亚·布朗案中所描述的那样的失败。系统无法识别在明亮天空下拖挂车白色侧面(正如事故所记录的),凸显了从训练数据泛化的挑战。这表明需要改进模型准确性和实时传感器数据处理,并强调对罕见但关键情境(即边缘案例)的鲁棒性。

III-C 培训数据的伦理影响

机器学习伦理中的一个关键考量是训练数据的质量与多样性。在特斯拉的案例中,虽然系统训练了数百万英里的驾驶数据,但公司是否负有责任确保这些数据涵盖广泛的环境、气候条件和不寻常的道路情况,构成了伦理关注。未能做到这一点不仅会增加事故概率,还会引发关于算法偏见的问题——即某些道路或条件是否被低估。

III-D 通过传感器融合提升感知能力

特斯拉的 Autopilot 还采用传感器融合,将雷达和超声波传感器等多种传感器输入结合,以做出更明智的决策。这些来源的数据通过卡尔曼滤波器处理,帮助系统实时预测物体位置。结合摄像头的视觉数据后,能够更全面地理解环境。然而,传感器融合算法的技术限制,如数据处理延迟或空间映射不准确,可能导致悲剧结果,正如约书亚·布朗案所示。

III-E 未来发展与强化学习的角色

未来的自动系统迭代可能受益于强化学习,在模拟环境中通过试错学习最佳驾驶行为。特斯拉已开始通过使用驾驶模拟器来训练模型,以更好地预测和应对新情况。此处也出现伦理关注,特别是关于这些模型在真实道路上部署前如何验证的透明度。

III-F AI模型的可解释性与伦理问责

在自动驾驶中,一个关键挑战是神经网络的可解释性。在类似Joshua Brown事故的场景中,难以确定模型为何未能识别拖车。可解释性对于确保AI驱动系统的伦理问责至关重要。目前的研究聚焦于诸如显著性图和SHAP(Shapley Additive exPlanations)值等方法,以提供更透明的模型决策。

本文讨论的伦理框架还必须考虑对更可解释AI模型的需求。通过确保模型能为每个决策提供理由,监管机构、工程师和公众可以对自动系统的安全性和可靠性拥有更大的信心。

IV 自动系统中的伦理决策

随着对特斯拉自动驾驶技术深度的理解,我们现在可以重新审视伦理决策框架。伦理影响不仅限于用户教育或监管范围;它们触及机器学习模型及其训练数据、传感器使用和可解释性的设计本身。这凸显了技术选择与伦理结果之间的相互关联,强化了在AI技术和伦理标准方面持续进步的必要性。

V 结论

解决特斯拉自动驾驶系统的挑战需要技术和伦理的双重进步。我的初步选择是实施 Option 3,该方案结合了利用精确传感器、人脸识别和专用神经网络模型的高级驾驶员监测系统。该方案持续评估驾驶员的专注度,在注意力减弱时触发实时警报,确保额外一层安全保障。

然而,单凭这一选择可能不足够,尤其是如果用户没有得到充分的关于所提议监控系统的教育,可能会出现误解和信任问题,进而导致隐私担忧。为减轻此风险,主动的公共教育活动至关重要。透明地沟通严格的隐私措施和安全优先事项必须伴随任何技术改进。主动教育公众了解他们的隐私权利以及系统的功能,对建立信任至关重要。

此外,选项1与选项3的组合提供了一种稳健且平衡的方法,以降低未来类似事件的发生可能性。警惕的驾驶员教育可以最小化滥用风险,而先进的监控系统则提供技术安全网。与行业利益相关者、监管机构和政策制定者合作,对于建立可持续的自动驾驶框架至关重要。通过这样做,特斯拉能够强化其对创新与安全的承诺。

将机器学习的技术进步(如改进的目标检测、AI模型可解释性以及传感器融合)与伦理原则相结合,是解决像特斯拉 Autopilot 这类自动驾驶系统所面临挑战的关键。这一全面战略不仅考虑了技术进步,还关注以人为本的关注点,推动了可靠且道德健全的自动驾驶系统的发展。其综合影响在用户和利益相关者之间培育了信心,进一步确认了特斯拉对安全、透明和创新的承诺。因此,我的最终建议是同时实施选项 1 和 3,以确保自动驾驶技术的更安全未来。

致谢

我真诚地感谢 Timothy Menzies 博士和助教们在课程期间给予的帮助与奉献。他们宝贵的贡献以及致力于营造良好学习环境的承诺,极大地丰富了我的学术经历。

参考文献

[1] IIHS. (2021年3月). 2019年死亡事实:年度快照。IIHS。 于2023年12月2日检索自 https://www.iihs.org/topics/fatality-statistics/detail/yearly-snapshot

[2] Bonnefon JF, Shariff A, Rahwan I. 自动驾驶车辆的社会困境。Science. 2016 Jun 24;352(6293):1573-6。doi: 10.1126/science.aaf2654。PMID: 27339987。

[3] 关于特斯拉汽车自动驾驶的提问 — 于2023年12月2日检索自Online Ethics(无日期)。 https://onlineethics.org/cases/questions-tesla-motors-about-autopilot

[4] Tesla, T. (2016年6月30日). 一次悲惨的损失。Electric Cars, Solar & Clean Energy。 于2023年12月2日检索自 https://www.tesla.com/blog/tragic-loss

[5] 七步法进行伦理决策 — 于2023年12月2日检索自Online Ethics(无日期)。 https://onlineethics.org/cases/seven-step-method-ethical-decision-making

[6] Mark Coeckelbergh (2016) 使用自动驾驶汽车的责任与道德现象学,Applied Artificial Intelligence, 30:8, 748-757,DOI: 10.1080/08839514.2016.1229759

[7] Jason Millar (2016) 用于机器人和自动驾驶汽车自动化伦理决策的伦理评估工具,Applied Artificial Intelligence, 30:8, 787-809,DOI: 10.1080/08839514.2016.1229919

[8] Nyholm, S. (2018, May 21). 自驾汽车碰撞伦理:路线图,I. Compass Hub. Retrieved December 2, 2023, from https://compass.onlinelibrary.wiley.com/doi/full/10.1111/phc3.12507

[9] Hansson, S.O., Belin, MÅ. & Lundgren, B. Self-Driving Vehicles—伦理概览. Philos. Technol. 34, 1383–1408 (2021). https://doi.org/10.1007/s13347-021-00464-5

[10] Sophie Feinauer, Lea Schuller, Irene Groh, Lynn Huestegge, Tibor Petzoldt, 游戏化在部分与条件驾驶自动化中的用户教育潜力:一项驾驶模拟器研究, Transportation Research Part F: Traffic Psychology and Behaviour, Volume 90, 2022, Pages 252-268, ISSN 1369-8478, https://doi.org/10.1016/j.trf.2022.08.009. (https://www.sciencedirect.com/science/article/pii/S1369847822001760)

[11] Nathan Bomey, 司机对自驾汽车技术限制的了解程度低, IIHS finds, Retrieved December 2, 2023, https://www.axios.com/2022/10/12/self-driving-cars-tesla-autopilot-gm-super-cruise

[12] Nordhoff S, Lee JD, Calvert SC, Berge S, Hagenzieker M, Happee R. (Mis-)use of standard Autopilot and Full Self‑Driving (FSD) Beta: 基于特斯拉 FSD Beta 用户访谈的结果. Front Psychol. 2023 Feb 23;14:1101520. doi: 10.3389/fpsyg.2023.1101520. PMID: 36910772; PMCID: PMC9996345.

[13] Noor Al-Sibai, Retrieved December 2, 2023, https://futurism.com/tesla-autopilot-users

[14] McDonald, A., Carney, C. & McGehee, D.V. (2018). 车辆所有者对 Advanced Driver Assistance Systems 的经验与反应(技术报告). Washington, D.C.: AAA Foundation for Traffic Safety.

[15] Penmetsa, P., Sheinidashtegol, P., Musaev, A., Adanu, E. K., & Hudnall, M. (2021, June 1). 自动驾驶车辆碰撞对公众对该技术认知的影响. IATSS Research. Retrieved March 1, 2022, from https://www.sciencedirect.com/science/article/pii/S0386111221000224