首页 > 机器人资讯 > 无人驾驶出现人身伤害事故,谁来负责?

无人驾驶出现人身伤害事故,谁来负责?

日期:2019-10-07   人气:  来源:互联网
简介:无人驾驶出现人身伤害事故,谁来负责? 当前,无人驾驶的科技研发正在全世界如火如荼的开展,无人驾驶技术倍受商业推崇,并被预测将成为继个人电脑和智能手机之后的第三个全球商业价值潜力无限的科技消费品。 在人们的理想中,无人驾驶最大的优势就是可以……

无人驾驶出现人身伤害事故,谁来负责?

当前,无人驾驶的科技研发正在全世界如火如荼的开展,无人驾驶技术倍受商业推崇,并被预测将成为继个人电脑和智能手机之后的第三个全球商业价值潜力无限的科技消费品。

在人们的理想中,无人驾驶最大的优势就是可以极大的降低甚至消除交通事故率,各种精密仪器持续监测,高精度三维地图持续辅助,人工智能完美处理运作,自动驾驶被认为将比人类驾驶员更靠谱,因为后者会出现操作失误和人为错误,比如走神、酒驾、疲惫等问题。

无人驾驶安全吗?

不安全!至少现在的技术还没能达到可以让人完全放心的地步。

这几年,无人驾驶导致了一系列人身伤亡事故的发生。

美国当地时间2015年7月1日,美国谷歌公司一辆无人驾驶汽车遭遇首起造成人身伤害的交通事故。在谷歌总部所在地山景城进行测试的一辆无人驾驶汽车被另外一辆汽车追尾。谷歌称,3名员工在事故中出现颈部扭伤,在医院进行检查后已正常上班。另外一辆汽车的驾驶员也称颈部和背部有疼痛感。

据谷歌称,这是自2009年以来无人驾驶汽车在190万英里(约合306万公里)测试行程中出现的第14起交通事故。谷歌曾表示,旗下无人驾驶汽车没有引发过任何交通事故,在14起交通事故中,有11起是其汽车被其他汽车追尾。

2016年2月14日,在美国加州山景城(MountainView),一辆谷歌无人驾驶汽车雷克萨斯RX450h试图在一条较宽的车道上绕开一堆沙包时,与一公交车的侧方发生碰擦,导致左前翼子板、前轮,和司机侧传感器受损。双方车辆中没有乘员受伤。

2016年5月19日,一位欧洲车主在使用特斯拉ModelS的自动驾驶功能时,车辆撞上了前面的货车,所幸时速不到10km/h,所以没有人受伤。车主表示无论主动巡航控制系统还是AEB自动刹车系统都没有发挥作用。

以上事故,虽然没有导致人身死亡,但也确实验证了,无人驾驶技术在当前还并不能完全信任,而下面这两起无人驾驶致死亡事故,则更加验证了无人驾驶的不可靠性。

事故一:中国河北高雅宁案。2016年1月20日,高雅宁驾驶ModelS进入京港澳高速,之后车辆一直沿最左端车道行驶。从其行车记录仪中记录下的画面中可以看到,在车辆前方有一辆道路清打车停靠,并打有闪烁灯光标志。按常理讲,ModelS在看到前方有停靠车辆后应迅速转到右侧车道以避免事故,但这辆ModelS既没有更换车道,而且在碰撞之前也没有减速和转向的迹象,致使驾驶员高雅宁当场死亡。在事后交警的检查报告中,也没有检查到刹车和转向痕迹。随后展开的事故调查过程中,驾驶员高雅宁的父亲高巨斌发现事故中ModelS的Autopilot很可能处于开启状态,KUKA机器人示教器维修,因此,便以诱导用户为名,起诉特斯拉中国销售公司,认为其在营销和推广过程中过分夸大了Autopilot的功能。

事故二:美国佛罗里达州JoshuaBrown案。2016年5月7日下午3时,JoshuaBrown驾驶一辆2015款特斯拉ModelS在佛罗里达州高速公路上与一辆垂直方向开来的挂车发生相撞。ModelS从挂车下面穿过时,挡风玻璃撞上了挂车的底部。之后ModelS失控偏离公路,撞上了路边的铁丝网与电线杆。在冲击中,ModelS顶部彻底撞毁,JoshuaBrown当场死亡,卡车司机FrankBaressi没有受伤。

无人驾驶发生事故,www.zr-kuka.com,责任在谁?

我们先看一下,特斯拉针对两起无人驾驶致死案的解释。针对中国河北的高雅宁案,特斯拉并没有发表任何声明,但在事故发生后,特斯拉中国官网对Autopilot系统的中文翻译从自动驾驶改为自动辅助驾驶。而针对美国本土事故,特斯拉的解释是:白色卡车在蓝天背景下识别不出,并且从特斯拉Autopilot的视角看,拖挂卡车侧面是悬浮在地面上的,这种非常少见的情况导致了Autopilot系统疏忽,没有启动自动刹车。同时车辆碰撞位置为特斯拉的挡风玻璃,使得碰撞安全系统无法发挥作用,这直接导致了驾驶员的死亡

在这次事故中,所有的传感器都没有发挥作用。特斯拉Autopilot中所使用的传感器是挡风玻璃中间的MobileyeEyeQ3视觉系统、前保险杠下方的毫米波雷达、以及车辆四周的12个超声波传感器。

Mobileye此前曾宣称,依靠强大的算法,单目摄像头就可以用在大部分辅助驾驶系统上。专注于无人驾驶系统研究的驭势科技联合创始人吴甘沙认为,无人驾驶需要全面考虑传感器的融合,而不是盲目相信算法,这次如果用更好的视觉传感器或在更高的地方多装一个毫米波雷达,事故或许就能避免。

吴同时表示,不赞成类似Autopilot的技术用于双向道路,目前的成熟度还是主要用于封闭的结构化道路。辅助驾驶不是无人驾驶,Autopilot还是需要驾驶员密切注意路况和车况。

特斯拉对此事非常紧张,如果NHTSA裁定为特斯拉Autopilot系统出纰漏,将会直接导致召回,这对一直把Autopilot当卖点的特斯拉来说将是沉重打击,也会给刚刚起步的辅助驾驶系统蒙上阴影。

特斯拉称这是Autopilot辅助驾驶系统行驶1.3亿英里过程中遇到的第一起致命事故,而美国每9400万英里就会发生致命车祸。特斯拉还强调,辅助驾驶技术一直都在发展之中,但它还并不完美,需要驾驶者保持警惕。使用Autopilot的过程中,汽车会不断提示双手要全程放在方向盘上,并且对你的车负责。

言下之意,特斯拉认为这起事故车主也需承担责任。

谁该为无人驾驶事故负责?

目前,全球范围内各国对无人驾驶都还没有明晰发法律可以界定问责。在美国,大多数州都表示无人驾驶不合法,只有14个州正尝试对无人驾驶立法,我国也明令规定不允许无人驾驶汽车上路行驶。

除了安全问题,无人驾驶立法中还有一个重要问题,就是如何追责。如果被无人驾驶车撞了,那责任算谁的?

现行的交通法规对无人驾驶车的责任分担没有明确规定,换言之,交通法规责任分担问题在无人驾驶方面是空白的。

首先,库卡机器人驱动器维修,汽车主机厂作为无人驾驶车辆提供者,在技术应用之前,应该考虑到所有的安全使用情况,一旦发生事故,主机厂的责任是无法避免的。另外,驾驶员要清楚,无人驾驶技术当前依然只能作为驾驶辅助系统,作为无人驾驶车的驾驶员,从道义上讲,如果不想在行车过程中把自己和乘员的小命送掉,就要你驾驶普通汽车一样,注意力集中,手握方向盘,做好安全驾驶。

其次,以前的责任分担,无非涉及到肇事者、侵权方和被侵权方,有时候还会加一个车辆的产品责任问题,但对于无人驾驶来说,现在又多了一个平台责任,也就是说,伴随人工智能系统的加入,出现了另外一个驾驶大脑,由此也就产生了平台的责任。

有人要问了,如果这样说,无人驾驶技术岂不就是白费了,如果要问我,我会说,本来就是这样,有了无人驾驶技术并不意味着人可以完全放轻警惕,因为即使是万分之一的概率,那也是灭顶之灾。

免责声明:本网部分文章和信息来源于互联网,本网转载出于传递更多信息和学习之目的。如转载稿涉及版权等问题,请立即联系网站所有人,我们会予以更改或删除相关文章,保证您的权利。