特斯拉的自动驾驶:伦理与悲剧
作者
- 阿拉文达·贾塔瓦拉巴
摘要
本案例研究深入探讨了涉及特斯拉自动驾驶的事件所产生的伦理后果,强调了特斯拉公司在道德上的责任。通过七步伦理决策流程,本文审视了用户行为、系统约束以及监管影响。此事件促使人们对汽车行业采纳自动驾驶技术所面临的伦理挑战进行更广泛的评估,呼吁重新考虑行业规范和法律框架。该分析简明地探讨了在技术发展不断变化的背景下的伦理考量。
arXiv: 2409.17380 (v1) — abs: https://arxiv.org/abs/2409.17380, html: https://arxiv.org/html/2409.17380v1, pdf: https://arxiv.org/pdf/2409.17380
目录
[TOC]
I 引言
美国每年有数百万起车祸,主要因人为错误导致,造成35,000人死亡、损失超过8710亿美元 [1]。为解决此问题,特斯拉率先推出“自动驾驶”之类的自动驾驶系统,旨在消除人为错误和车辆操作员的需求。自动驾驶技术的快速发展正在重塑交通格局,提供更高的便利和安全,但也带来道德困境,典型例子是Joshua Brown与特斯拉自动驾驶系统之间的致命事故 [2][3]。Brown先生于2016年5月7日突然死亡,原因是他的特斯拉Model S在自动驾驶模式下与一辆拖拉机-卡车相撞,这一事件凸显了与新技术前沿相关的伦理担忧,尤其当涉及人类生命时。
特斯拉报告称,在超过1.3亿 Autopilot 里程中首次记录到死亡事件,这与美国道路上大约9400万英里的死亡间隔形成了显著对比 [4]。国家公路交通安全管理局(NHTSA)发起了评估,强调需要确定该技术是否按预期运行。特斯拉随后及时向 NHTSA 通报了一个特殊事件:在一条双向高速公路上,一辆拖拉机-货车横跨道路,导致 Model S 在其下方行驶并撞击挡风玻璃。
事故发生在约书亚·布朗的 Model S 向东行驶在佛罗里达北部的 US-27A 双向高速公路时。一辆在相反方向行驶的拖拉机-货车在特斯拉前方转向左侧。特斯拉处于 Autopilot 模式。根据特斯拉公司的说法,‘Autopilot 和驾驶员都没有注意到拖拉机的白色侧面与明亮的天空相映衬,因此没有刹车’ [5]。拖车离地面足够高,车辆继续驶下,导致车顶被切割。车辆驶离道路,撞击两道围栏和一根电杆后停下。
约书亚·布朗与特斯拉 Autopilot 系统发生致命碰撞的核心问题在于自动驾驶技术的伦理含义。尽管被标记为 Autopilot,特斯拉在实施和宣传需要持续人工监督的系统时,其伦理责任引发了关于用户意识、安全预防措施以及从驾驶员辅助到部分自动化的道德转变的担忧。非伦理层面,如技术和法律限制,增加了复杂性,需要对 Autopilot 系统的运作和监管框架进行仔细分析。本文运用七步伦理决策框架 [6],全面审视特斯拉作为自动驾驶技术领导者的道德责任。除了案例细节,分析还强调了对汽车行业的重大影响,强调将道德原则和法律体系与技术进步相匹配的重要性,在人机共享道路的未来。
II 伦理决策框架
驾驭特斯拉 Autopilot 系统的道德复杂性需要细致的关注。本节采用了本研究所使用的结构化七步流程,分析自动驾驶技术的道德影响,这些步骤在 I 引言、II-A 收集和评估相关事实、II-B 确定利益相关者、II-C 制定五个选项列表、II-D 测试选项以及将第六步和第七步(即临时和最终选择)结合,以在 V 结论中解决问题。继约书亚·布朗(Joshua Brown)的悲剧事件之后,本框架中的每一步都作为工具来阐明特斯拉汽车的道德责任,为指导动态技术创新领域的道德决策提供超越案例具体细节的洞见。
II-A 收集和获取相关事实
多项学术研究探讨了自动驾驶汽车开发的伦理方面,主要强调为这些系统注入人类伦理标准 [7][8]。这些研究比较了人们面临的伦理困境和广泛采用自动驾驶汽车所可能遇到的障碍。然而,这些讨论中存在一个关键缺口,因为它们往往需要更深入地分析设计过程以及人们如何将自己的道德原则融入技术,从而影响社会如何与之互动和使用。
一项具体研究,“自动驾驶汽车事故的伦理:路线图”(The Ethics of Crashes with Self-Driving Cars: A Roadmap)[9]深入探讨了谷歌、优步(Uber)和特斯拉等知名科技公司在自动驾驶车辆测试初期阶段的情况。作者指出,这些公司对自身承担责任程度以及车辆在即将发生道德困境时应如何处理持有不同观点。作者认为,这些矛盾表明需要更明确定义的伦理协议和对自动驾驶汽车的准备。具体而言,作者强调在可能导致致命后果的事故情境中,车辆算法缺乏标准操作指南。在讨论自动驾驶汽车的事故算法时,作者警告不要忽视基本的道德和法律问责问题。
另一项研究《自驾车辆 - 伦理概览》[10],探讨了在拥有自动驾驶车辆的道路系统中可能出现的责任空白。作者认为,仅将责任归咎于可能无法控制自动驾驶车辆的车主是具有挑战性的。责任不仅仅局限于制造商的指导方针或车辆的智能系统。由于各种不同的情况和损失,确定车祸责任变得复杂。论文强调社会决策对伦理后果的显著影响,并强调在自动驾驶汽车技术中采用系统化伦理方法的必要性。
尽管这些学术研究对人工智能与自动驾驶可能产生的道德难题提供了深刻的分析,但仍然存在关于如何将伦理考量融入设计的关键空白。
II-B 识别利益相关者
识别决策所影响的广泛个人和实体的范围对于确定特斯拉自动驾驶技术的利益相关者至关重要。主要利益相关者包括特斯拉汽车,即技术的创造者和生产者,他们在涵盖产品设计、市场营销和用户说明的伦理考量上具有重要利益。投资者和股东也是重要的利益相关者,因为与自动驾驶相关的道德选择会影响公司的声誉和财务表现。
自动驾驶用户是重要利益相关者,因为该系统直接影响他们的安全。公众和更广泛的客户群体也受到影响,因为它对社会规范、公众信任和道路安全具有影响。立法者和监管机构在制定管理自动驾驶车辆使用的法律方面也具有重要利益。
在自动驾驶领域的竞争者,例如汽车制造商和科技公司,也受到特斯拉决策的影响,成为利益相关者。
针对本案例研究,其他具有影响力的利益相关者包括约书亚·布朗的家人,即自动驾驶相关事故的受害者,为伦理问题提供了人性化的面貌。
在社会层面,倡导消费者权益、技术伦理和道路安全的团体和组织支持自动驾驶中的道德行为。
最后,作为与自动驾驶汽车同行的道路使用者,行人是受到潜在问题或故障影响的重要利益相关者。
II-C 选项列表
以下选项为特斯拉汽车提供了多种方法,以解决自动驾驶所提出的道德困境。每个选择都有其自身的优点和缺点,结合这些策略可以彻底解决复杂的伦理问题。
II-C1 提升用户教育与意识
提供全面的培训资源,以确保自动驾驶的用户了解系统的所有功能和限制。 此外,在开启自动驾驶前,确保用户完成必要的测试或培训课程。 强调在系统运行期间保持警觉和参与的重要性。 大量研究还表明,事故的主要原因之一是用户缺乏教育 [11][12]。
II-C2 限制自动驾驶在特定驾驶情境中的使用
实施软件更新,限制自动驾驶在特定驾驶情境中的使用,例如仅在高速公路或明确定义的道路上使用。 为确保在具有挑战性或危险的区域中更安全使用,地理围栏技术会创建虚拟限制区域,在这些区域内自动驾驶功能会被自动禁用。
II-C3 安装更先进的驾驶员监控系统
许多特斯拉车主在访谈中([13])承认,当自动驾驶系统开启时,他们会变得越来越自满——这是一种可能致命的疏忽,给个人和环境都带来后果。为了解决这个问题,可以升级自动驾驶的驾驶员监控系统,确保驾驶员持续保持专注。利用先进技术,例如人脸识别和精准方向盘传感器,准确评估驾驶员注意力。部署高分辨率摄像系统,周期性捕捉驾驶员的照片。将这些图像通过专门训练的神经网络模型处理,以分类不同程度的注意力水平。神经网络的输出将作为响应式警告和报警系统的基础。当检测到注意力下降的迹象时,系统将触发实时警报,确保立即通知驾驶员。这一技术方案融合了尖端的人脸识别、传感器技术和神经网络决策,实现精准及时的响应。这一改进方案提供了技术上更为复杂的驾驶员监控方法,增强了自动驾驶安全机制,提升了准确性和响应性。
II-C4 与监管和行业组织合作
通过与其他汽车制造商、科技公司和政府机构合作,共同制定行业范围内的自动驾驶技术标准。积极参与论坛和项目,确立道德标准和创建与实施自动驾驶系统的最佳实践。
II-C5 通过用户输入持续改进
为自动驾驶用户提供可靠的反馈渠道,让他们分享使用体验并评论系统的运作方式。以用户反馈为基础进行持续开发,修改自动驾驶系统以解决新的道德困境并提升安全性。
II-D 测试选项
II-D1 宣传测试
• Option 1: 推广用户教育体现了对安全和道德技术使用的承诺,带来积极的宣传效果。高尚,但可能比尖端技术替代方案激发出不同程度的热情 [14].
• Option 2: 将使用限制公开展示了对用户安全的承诺,而非大规模采用,从而产生正面媒体报道。符合安全关注,但可能因未充分利用 Autopilot 功能而受到批评 [15].
• Option 3: 宣布先进监控系统提升公众认知,展示积极的安全态度。获得正面媒体报道,但可能引发隐私担忧,导致公众反应不一 [16].
• Option 4: 宣布合作伙伴活动将 Tesla 定位为合作且负责任的行业成员,预计将受到媒体好评。
• Option 5: 致力于利用用户反馈使 Tesla 被视为以用户为中心且不断发展的公司。与以客户为中心的战略一致,可能获得正面媒体报道。然而,反馈整合不佳或严重系统问题可能使 Tesla 面临批评 [17].
II-D2 危害测试
• Option 1: 通过全面培训提升用户理解并最小化误用,从而减少危害,直接解决潜在危害根源。彻底教育显著降低事故风险。
• Option 2: 通过将 Autopilot 限制在更安全的驾驶场景中来应对潜在危险,降低危害并减少事故发生概率。然而,可能因限制系统功能而受到批评。
• Option 3: 通过确保驾驶员专注,降低因分心驾驶相关风险,从而减轻危害。然而,隐私担忧和监控系统的有效性可能存在差异。
• Option 4: 通过推动行业范围内负责任的自动驾驶准则来降低危害。侧重建立标准化框架,减少因监管不一致导致的危害。监管讨论的进展可能需要时间。
• Option 5: 通过应用用户反馈、提升系统安全并主动解决新兴伦理挑战来应对潜在危害。其效果取决于快速反馈实施。
II-D3 可防御性测试
• Option 1: 容易为关注预防教育、降低事故风险、强调对用户安全的奉献而辩护。将特斯拉定位为致力于主动安全措施的负责任公司 [18]
• Option 2: 通过强调使用限制以提升安全性、优先考虑负责任的技术应用而具备可辩护性。然而,它可能会受到寻求更多自主权的用户的反对。
• Option 3: 通过强调增强监控在预防事故中的重要性、与对驾驶员安全的奉献相一致而具备可辩护性。可能会因隐私问题而出现挑战。
• Option 4: 通过强调行业范围内的规范和主动参与伦理问题,易于辩护。将特斯拉定位为致力于建立行业标准的负责任企业公民。
• Option 5: 通过强调用户反馈在提升系统安全性和解决道德问题中的重要性而具备可辩护性。其有效性取决于反馈系统的稳健性以及必要变更的迅速实施。
II-D4 可逆性测试
• Option 1: 该测试对该选项无关紧要,因为包括我在内的每个人都会倡导向用户传播更多意识和教育,因为这只会使他们受益。
• Option 2: 许多人,包括我自己,可能会倾向于支持此选项,承认在使用自动驾驶功能于不适当区域时会产生不可预见的问题所带来的风险。
• Option 3: 许多人,包括我自己,都会支持特斯拉将此选项整合进其自动驾驶系统,认识到其好处。然而,特斯拉必须制定透明的隐私政策,并告知用户其权利,以解决在实施此选项时的相关隐私问题。
• Option 4: 该测试无关紧要,因为公司与监管机构之间的加强合作得到普遍认可,包括我自己的观点,因为它符合在开发自动驾驶技术时的伦理和负责任实践。
• Option 5: 该选项侧重于持续改进,可能会被我自己和他人接受。成功取决于高效的反馈系统和及时的实施,但如果这些方面遇到挑战,可能会被拒绝。
II-D5 美德测试
• Option 1: 负责任的技术使用倡导,展示对用户安全和道德自动驾驶的承诺。符合正直等美德,有助于以安全为优先的数字环境。
• Option 2: 倡导在自动驾驶中保持谨慎与安全,体现了慎重与责任。将安全置于便利之上,致力于深思熟虑的决策与风险降低。
• Option 3: 促进驾驶员安全与专注,体现勤勉与奉献。展示持续改进安全的努力,符合责任与持续改进等美德。
• Option 4: 体现协作与倡导伦理行业标准。我将致力于与符合合作与正直等美德的监管机构合作,为道德商业实践做出贡献。
• Option 5: 倡导以用户为中心且具有响应性的技术开发。致力于融入用户反馈,符合响应性与致力于用户满意度等美德。此举有助于持续推进伦理且以用户为中心的发展。
II-D6 同事测试
• Option 1: 通常受到同事青睐,体现对用户教育与安全的投入,符合共同的负责任技术使用原则。有些人可能认为仅有用户教育不足;技术局限应同时得到解决。
• Option 2: 主要得到同事认可,符合把安全放在普及使用之前的共同理想。有些人可能会担心对用户便利性的限制,以及我们无法……
• Option 3: 受到同事的青睐,与负责任地把安全放在首位并发展技术的共享原则保持一致。一些人可能对先进驾驶员监控存在隐私担忧,导致部分反对,但教育可以解决这些问题。
• Option 4: 受到同事的支持,与商务合作和伦理标准发展的共同价值观保持一致。一些同事对与监管机构合作有效性持怀疑态度,可能导致保留意见。
• Option 5: 受到同事的青睐,与持续改进和以用户为中心的技术发展的共享原则保持一致。有人担心将用户反馈纳入的可行性,可能导致部分反对。
II-D7 专业测试
• 选项 1:将因符合行业期望、优先考虑用户教育以实现伦理自动化功能而获得伦理委员会批准。教育用户将被视为负责任的技术使用方法。
• 选项 2:将因符合行业标准而受到伦理委员会的积极认可。为提升安全而限制 Autopilot 将被视为负责任且符合伦理的决定,尽管委员会可能主张使相关隐私风险更加透明。
• 选项 3:将因符合行业规范、通过增强监控优先保障驾驶员安全而获得批准。关于隐私问题可能会出现一些反对声音。
• 选项 4:将因与监管机构合作符合伦理标准而获得伦理委员会的强力支持。制定行业级指南将被视为负责任且符合伦理的贡献。
• Option 5: 将获得伦理委员会的谨慎批准。虽然重视用户反馈,但仅依赖用户反馈进行持续改进可能存在疑虑。平衡以用户为中心和技术专长对于伦理技术进步至关重要。
II-D8 组织测试
• 选项 1:符合特斯拉对用户安全的承诺,可能会获得伦理官员的积极反馈。强调用户教育体现了主动的安全方法。
• 选项 2:符合特斯拉的安全承诺,得到伦理官员的积极评审。专注于限制自动驾驶符合原则和准则。
• 选项 3:展示了对安全技术的奉献,可能会得到伦理官员的积极认可。安装先进监控体现了对创新和道德驾驶实践的承诺。
• 选项 4:突显特斯拉对道德行为和行业进步的承诺。这一选项很可能获得积极反馈,展示了对伦理实践和合作的奉献。
• 选项 5:展示了主动解决伦理问题的方法,符合特斯拉的价值观。这一选项很可能得到积极评审,体现了持续改进和以用户为中心的技术发展承诺。
III 特斯拉自动驾驶的技术方面
特斯拉的自动驾驶严重依赖计算机视觉、传感器融合和神经网络的组合,以解释并响应驾驶环境。主要技术包括用于物体检测、车道检测和决策的深度学习模型,这些模型与摄像头、雷达、超声波传感器和激光雷达等硬件组件相互作用。
III-A 自动驾驶中的神经网络
特斯拉自动驾驶系统的核心是一种多层卷积神经网络(CNN),在海量驾驶数据上训练。CNN负责识别道路上的物体,例如车辆、行人和道路标志。该系统还使用循环神经网络(RNN)进行时序数据处理,分析帧序列以预测运动和轨迹。
这些模型在多种驾驶条件下训练,构成 Autopilot 决策过程的基础。神经网络接收来自摄像头和其他传感器的实时数据,帮助车辆识别物体,分类其相关性(例如,行人与车辆),并做出毫秒级决策。
III-B 当前机器学习模型的局限性
尽管这些模型很先进,但数据集覆盖范围和极端情况的局限导致了像约书亚·布朗案中所描述的那样的失败。系统无法识别在明亮天空下拖挂车白色侧面(正如事故所记录的),凸显了从训练数据泛化的挑战。这表明需要改进模型准确性和实时传感器数据处理,并强调对罕见但关键情境(即边缘案例)的鲁棒性。
III-C 培训数据的伦理影响
机器学习伦理中的一个关键考量是训练数据的质量与多样性。在特斯拉的案例中,虽然系统训练了数百万英里的驾驶数据,但公司是否负有责任确保这些数据涵盖广泛的环境、气候条件和不寻常的道路情况,构成了伦理关注。未能做到这一点不仅会增加事故概率,还会引发关于算法偏见的问题——即某些道路或条件是否被低估。
III-D 通过传感器融合提升感知能力
特斯拉的 Autopilot 还采用传感器融合,将雷达和超声波传感器等多种传感器输入结合,以做出更明智的决策。这些来源的数据通过卡尔曼滤波器处理,帮助系统实时预测物体位置。结合摄像头的视觉数据后,能够更全面地理解环境。然而,传感器融合算法的技术限制,如数据处理延迟或空间映射不准确,可能导致悲剧结果,正如约书亚·布朗案所示。
III-E 未来发展与强化学习的角色
未来的自动系统迭代可能受益于强化学习,在模拟环境中通过试错学习最佳驾驶行为。特斯拉已开始通过使用驾驶模拟器来训练模型,以更好地预测和应对新情况。此处也出现伦理关注,特别是关于这些模型在真实道路上部署前如何验证的透明度。
III-F AI模型的可解释性与伦理问责
在自动驾驶中,一个关键挑战是神经网络的可解释性。在类似Joshua Brown事故的场景中,难以确定模型为何未能识别拖车。可解释性对于确保AI驱动系统的伦理问责至关重要。目前的研究聚焦于诸如显著性图和SHAP(Shapley Additive exPlanations)值等方法,以提供更透明的模型决策。
本文讨论的伦理框架还必须考虑对更可解释AI模型的需求。通过确保模型能为每个决策提供理由,监管机构、工程师和公众可以对自动系统的安全性和可靠性拥有更大的信心。
IV 自动系统中的伦理决策
随着对特斯拉自动驾驶技术深度的理解,我们现在可以重新审视伦理决策框架。伦理影响不仅限于用户教育或监管范围;它们触及机器学习模型及其训练数据、传感器使用和可解释性的设计本身。这凸显了技术选择与伦理结果之间的相互关联,强化了在AI技术和伦理标准方面持续进步的必要性。
V 结论
解决特斯拉自动驾驶系统的挑战需要技术和伦理的双重进步。我的初步选择是实施 Option 3,该方案结合了利用精确传感器、人脸识别和专用神经网络模型的高级驾驶员监测系统。该方案持续评估驾驶员的专注度,在注意力减弱时触发实时警报,确保额外一层安全保障。
然而,单凭这一选择可能不足够,尤其是如果用户没有得到充分的关于所提议监控系统的教育,可能会出现误解和信任问题,进而导致隐私担忧。为减轻此风险,主动的公共教育活动至关重要。透明地沟通严格的隐私措施和安全优先事项必须伴随任何技术改进。主动教育公众了解他们的隐私权利以及系统的功能,对建立信任至关重要。
此外,选项1与选项3的组合提供了一种稳健且平衡的方法,以降低未来类似事件的发生可能性。警惕的驾驶员教育可以最小化滥用风险,而先进的监控系统则提供技术安全网。与行业利益相关者、监管机构和政策制定者合作,对于建立可持续的自动驾驶框架至关重要。通过这样做,特斯拉能够强化其对创新与安全的承诺。
将机器学习的技术进步(如改进的目标检测、AI模型可解释性以及传感器融合)与伦理原则相结合,是解决像特斯拉 Autopilot 这类自动驾驶系统所面临挑战的关键。这一全面战略不仅考虑了技术进步,还关注以人为本的关注点,推动了可靠且道德健全的自动驾驶系统的发展。其综合影响在用户和利益相关者之间培育了信心,进一步确认了特斯拉对安全、透明和创新的承诺。因此,我的最终建议是同时实施选项 1 和 3,以确保自动驾驶技术的更安全未来。
致谢
我真诚地感谢 Timothy Menzies 博士和助教们在课程期间给予的帮助与奉献。他们宝贵的贡献以及致力于营造良好学习环境的承诺,极大地丰富了我的学术经历。
参考文献
[1] IIHS. (2021年3月). 2019年死亡事实:年度快照。IIHS。 于2023年12月2日检索自 https://www.iihs.org/topics/fatality-statistics/detail/yearly-snapshot
[2] Bonnefon JF, Shariff A, Rahwan I. 自动驾驶车辆的社会困境。Science. 2016 Jun 24;352(6293):1573-6。doi: 10.1126/science.aaf2654。PMID: 27339987。
[3] 关于特斯拉汽车自动驾驶的提问 — 于2023年12月2日检索自Online Ethics(无日期)。 https://onlineethics.org/cases/questions-tesla-motors-about-autopilot
[4] Tesla, T. (2016年6月30日). 一次悲惨的损失。Electric Cars, Solar & Clean Energy。 于2023年12月2日检索自 https://www.tesla.com/blog/tragic-loss
[5] 七步法进行伦理决策 — 于2023年12月2日检索自Online Ethics(无日期)。 https://onlineethics.org/cases/seven-step-method-ethical-decision-making
[6] Mark Coeckelbergh (2016) 使用自动驾驶汽车的责任与道德现象学,Applied Artificial Intelligence, 30:8, 748-757,DOI: 10.1080/08839514.2016.1229759
[7] Jason Millar (2016) 用于机器人和自动驾驶汽车自动化伦理决策的伦理评估工具,Applied Artificial Intelligence, 30:8, 787-809,DOI: 10.1080/08839514.2016.1229919
[8] Nyholm, S. (2018, May 21). 自驾汽车碰撞伦理:路线图,I. Compass Hub. Retrieved December 2, 2023, from https://compass.onlinelibrary.wiley.com/doi/full/10.1111/phc3.12507
[9] Hansson, S.O., Belin, MÅ. & Lundgren, B. Self-Driving Vehicles—伦理概览. Philos. Technol. 34, 1383–1408 (2021). https://doi.org/10.1007/s13347-021-00464-5
[10] Sophie Feinauer, Lea Schuller, Irene Groh, Lynn Huestegge, Tibor Petzoldt, 游戏化在部分与条件驾驶自动化中的用户教育潜力:一项驾驶模拟器研究, Transportation Research Part F: Traffic Psychology and Behaviour, Volume 90, 2022, Pages 252-268, ISSN 1369-8478, https://doi.org/10.1016/j.trf.2022.08.009. (https://www.sciencedirect.com/science/article/pii/S1369847822001760)
[11] Nathan Bomey, 司机对自驾汽车技术限制的了解程度低, IIHS finds, Retrieved December 2, 2023, https://www.axios.com/2022/10/12/self-driving-cars-tesla-autopilot-gm-super-cruise
[12] Nordhoff S, Lee JD, Calvert SC, Berge S, Hagenzieker M, Happee R. (Mis-)use of standard Autopilot and Full Self‑Driving (FSD) Beta: 基于特斯拉 FSD Beta 用户访谈的结果. Front Psychol. 2023 Feb 23;14:1101520. doi: 10.3389/fpsyg.2023.1101520. PMID: 36910772; PMCID: PMC9996345.
[13] Noor Al-Sibai, Retrieved December 2, 2023, https://futurism.com/tesla-autopilot-users
[14] McDonald, A., Carney, C. & McGehee, D.V. (2018). 车辆所有者对 Advanced Driver Assistance Systems 的经验与反应(技术报告). Washington, D.C.: AAA Foundation for Traffic Safety.
[15] Penmetsa, P., Sheinidashtegol, P., Musaev, A., Adanu, E. K., & Hudnall, M. (2021, June 1). 自动驾驶车辆碰撞对公众对该技术认知的影响. IATSS Research. Retrieved March 1, 2022, from https://www.sciencedirect.com/science/article/pii/S0386111221000224