Coche autónomo y responsabilidad

El lunes un vehículo de Uber atropelló y mató a una mujer durante un recorrido de prueba. Al día siguiente la policía decía que era “completamente imposible” evitar el accidente, pero un día después un vídeo revelaba que el conductor del Uber no estaba mirando la carretera. ¿Quién es el responsable en un caso así?

Como muchos medios apuntaron, es posible que se trate de la primera vez que un automóvil sin conductor ha causado un accidente fatal con un peatón. Un incidente que realimenta el debate moral y la ética sobre este tipo de tecnología, debate que por cierto, existía antes incluso de su aparición.

¿Es realmente la primera muerte bajo estas circunstancias? Sí, aunque lo más cercano hasta la fecha ocurrió en un Tesla con el modo autopilot que causó un accidente y mató a su conductor. Tras una investigación de ocho meses en Estados Unidos, los reguladores federales de seguridad no encontraron defectos en el sistema del vehículo y Tesla fue exonerada.

Disfrute más videos de

TAGS RELACIONADOS