首页 > 酒店新闻 > 行业动态

AG真人- 官网|【C3】将伦理道德写入无人驾驶汽车的程序?

发布时间:2025-10-15 18:06:24    次浏览

C?3;同学共创关注成长·关爱他人·关心社会场景一假设这是2034年的某天夜里。一个喝得七荤八素的男人在人行道上东倒西歪地走着,突然一个踉跄,直接倒向了旁边的机动车道,而一辆疾驰而过的无人驾驶汽车则直接撞向了这位男子,他不幸当场身亡。如果这辆车子是由人类司机来驾驶的,那么显然事故责任在醉酒的行人,因为没有哪个司机能在如此短的时间内做出反应,避开突然冲出来的路人。不过早在21世纪20年代(2020年~2030年),由于无人驾驶汽车的大规模投放市场,交通事故的发生率锐减近九成,而此前相关法律规定「驾驶员因他人过失致他人死亡不承担刑事责任」中提到的“驾驶员”,现在则变成了“有合理判断能力的机器人”。那么,死者家属恰恰抓住了这点依据,将制造无人驾驶汽车的主机厂告上法庭,声称“即便没时间刹车,它也应该打转向避开行人,越过双黄线,撞向邻车道并没有载客的无人驾驶汽车”。而根据车辆传感器提供的数据重建了事故发生时的场景,你会发现死者家属控诉的的确很有道理。法庭上, 原告律师一直在质问这台无人车的软件总设计师,“为什么这辆无人车当时不知道应该转向呢?”。场景二无人驾驶汽车在今天似乎已经触手可及,但一系列伦理问题尚未解决。例如,当车祸无法避免时应如何取舍? 德国梅赛德斯-奔驰公司澳大利亚分公司近期给出一个清晰回答: 宁撞儿童,也要力保车内人员安全。不过这一编程思路引发争议,就连不少自动驾驶技术的拥趸也表示不安。(新京报10月16日)法律优先还是道德优先?通常,在遇到道德层面模棱两可的情况时,我们一般都会以遵守法律为主,同时尽可能减小具体后果造成的损害。这种策略之所以较为流行,是因为开发人员在为自动驾驶汽车的行为作出解释时几乎不用费什么力(它是根据法律规定作出的决策嘛),而且这样一来,定义道德行为的责任就转移到了法律制定者的手里。举例来说,在大部分国家,相关的法律规定已经固化为驾驶员的常识了,它几乎没有明确规定在发生碰撞事故前,驾驶员应该采取哪些行为。在文章一开始给出的案例中,这辆无人驾驶汽车按照法律规定是不会主动转向碾压双黄线的,即使它冒着撞到闯入机动车道的醉酒行人,相邻车道还有辆空载的无人车。当然, 法律基本不会给出“紧急情况该如何处理”的特别说明,尤其具体到“有行人误闯机动车道”的类似情况。即便像弗吉尼亚州法律会给出类似的特例,但法律条文的字面意思似乎暗示“只要车子没发生碰撞事故就是合法行为”。在这种特例中, 只能由软件工程师决定,何时跨过双黄线的行为是安全的。 不过话又说回来了,让无人驾驶汽车100%确定越过双黄线能够保证安全,这恐怕也不大可能。如果从机器的角度考虑,它的自信程度可能在98%~99.99%。因此,负责为自动驾驶系统编码的软件工程师可能得提前估算好,紧急情况下越线需要系统有多高的自信度才能完成,同时这个临界阀值是不是应该根据车子要避开的对象有关系,毕竟要躲开塑料袋和躲开闯入的行人,需要的决断力完全不同。不过目前来看, 很多时候自动驾驶汽车利用“判断力”得出的结论和现行法律相悖。谷歌已经承认,允许在公共道路上测试的无人驾驶汽车超速赶上车流,因为开得太慢反倒十分危险。而有时候为了将生病的家人或朋友尽快送往医院,超速行驶是在所难免的事。斯坦福大学的研究人员Chris Gerdes和Sarah Thornton反对将法律作为硬性限制条件编入自动驾驶汽车的控制程序,因为人类司机懂得变通,关键时刻他会衡量吃罚单和所得好处的关系。可一旦机器被程序束缚,即使你已经十万火急,但偏偏前头被一骑自行车的人挡着,载你的无人车不肯压线超车,你是干着急也没脾气。其实,自动驾驶汽车完全可以在不违规的情况下,机智地做出很多安全的决策。举例来说,大多数交通法规并没有严格规定机动车在车道内的位置,而大部分单行道的宽度一般是普通机动车的两倍,那么利用多余的空间,自动驾驶汽车完全能够避开突然出现的障碍物或者一些左右摇晃的车子。在一份2014年提交的无人驾驶汽车专利中,谷歌表示旗下的无人驾驶汽车能够通过改变在车道内的位置来避免交通事故的发生。举例来看,当一辆无人驾驶汽车行驶在三车道的最中间,左边是辆小轿车,而右边是辆大卡车。为了最大程度地保证安全,这辆无人车会选择靠近左侧轿车的位置行驶。这种处理方式听起来还蛮有道理的吧?而且这也是大多数人开车时有意无意都会做出的选择。不过,从道德层面考虑的话,这种做法其实欠妥。如果自动驾驶汽车转向靠近小轿车的位置行驶,虽降低了事故发生率,但似乎却将撞车的风险转移到了小车身上,难道就因为它小,它就得承担更多的风险吗? 如果这只是某个驾驶员的个人行为,关系不大。可一旦这种转嫁风险的模式成型了,所有的自动驾驶汽车都这么做的话,后果可就难以预测了。机器脑子不拐弯,这是个问题!在上面提到的各个案例中,一辆无人驾驶汽车决策的制定,既需要考虑可能被撞的物体,同时也要顾及车中的乘客。 和人类不一样的是,人类做决定往往是下意识的,而机器则会遵循某种预设好的、既定的逻辑规则和风险管理的策略去执行。同样在2014年,谷歌还提交了一项有关无人驾驶汽车风险管理应用的专利。在这项专利的陈述中,谷歌以一辆意图通过变道来更好地观察红绿灯的无人驾驶汽车为例。论述中也指出,这辆车子可能担心因为故障传感器的数据有误导致碰撞事故发生,而这么做放弃的就是红绿灯的准确信息。这里需要指出的是,每个可能发生的结果都存在一定的可能性,而结果的属性亦有正有负(即所谓的好处和代价)。当然,任何结果的量级会随着可能性翻倍,而且最终的结果是各个变量叠加的总和。假设系统根据某个合理的临界值判断,最后得到的好处要比付出的代价多,那么它可能就会做出导向该结果的行为。不过问题在于,碰撞事故发生的风险和几率实在是太小了。在美国,每个驾驶员平均行驶25万7千公里或者每12年才可能发生一次碰撞事故。另外,如何衡量人身损害的程度更为困难。财产损失很好统计,这种事情保险公司最擅长,但如何将人身伤亡量化,就不是那么简单的事情了。而且,一旦考虑到人的生命,通勤浪费的时间等等,面对“我们该如何将他人暴露在风险中”这样的问题时,将伦理道德作为主要出发点考虑,似乎欠妥。举例来看,假设有这么一辆对所有人类一视同仁的自动驾驶汽车,在路上行驶的时候,它一定会给那辆没戴头盔的摩托车手让开更多空间,因为一旦发生车祸,他似乎更容易丧生。但说实话,这并不公平,因为对那些安全意识强、几乎全副武装的摩托车手而言,自己反倒被迫承担了事故风险。此外,所谓机器人的“伦理道德”和人类自身的伦理认知相比,最大的区别在于前者很容易被扭曲,即便负责程序开发的工程师完全都是好意。想象一下, 操控无人驾驶汽车运行的算法会根据不同区域的情况来调整车子和行人间的缓冲距离,而判断的标准可能是根据涉及交通事故的民事诉讼案件的判决结果分析得出的。尽管这是一种相对合理、目的性强、高效的控制无人车的方式,但它也可能会导致不好的结果发生。前途还是光明的!目前来看, 无人驾驶汽车的道德伦理问题并非没法解决,因为在其他很多领域,安全合理地处理类似风险和利益关系的方式,并不鲜见。例如在选择捐赠器官受体的问题上,除了其他变量之外,病人术后能否恢复高质量的生活显然是首要考虑的因素,而至于“终身服用抗排异药物及可能出现的免疫反应”都是值得付出的代价。再者,部队征兵时往往会避开农民和教师等一些重要的职业,属于同样的道理。毫无疑问,自动驾驶汽车的发展面临着巨大的挑战。它必须能够快速决策,利用有限的信息,处在程序猿经常都没有考虑到的场景里,通过写入软件代码“直白地令人发指”的道德准则作出判断。幸运的是,相比超人类般的智慧,普通大众更希望机器控制下的无人车能够做出理性同时符合人类伦理道德标准的决定。任何解决方案其实无需完美,但它至少是经过深思熟虑,经得起推敲的。本文素材来自“中国质量报”、“ PCauto ”。如原作者对本文内容有任何异议,请联络[email protected]。更多精彩请持续关注本 公众号回复“C3”C3或访问www.c3space.org获取更多详细信息