Inteligencia artificial: primer juicio por accidente de tráfico mortal

El primer accidente de circulación con resultado de muerte causado por un coche autónomo ha llegado a juicio en los Estados Unidos el pasado mes de septiembre, y plantea serias dudas sobre quién debe ser considerado responsable de dicha muerte.

Concretamente, los hechos que están siendo juzgados ocurrieron en la noche del 27 de agosto de 2018, cuando una mujer cruzaba a pie con una bicicleta una calle de la localidad de Tempe, Arizona, y fue atropellada por un vehículo autónomo de Uber que estaba en pruebas.

Los sistemas del coche, cuya conductora de respaldo en ese momento estaba distraída mirando un programa de televisión en su móvil, detectaron a la peatón 5,6 segundos antes del choque pero no detuvieron el vehículo ya que no pudieron determinar si era un ciclista, un peatón o un objeto desconocido, o si se dirigía hacia el camino del vehículo.

Esta figura del conductor de respaldo obedece a la necesidad de que una persona supervise en todo momento las reacciones del vehículo en pruebas y tome decisiones si por la razón que sea el coche no actúa como debiera.

En el caso que nos ocupa, una serie de circunstancias hizo que la peatón (que además dio positivo en metanfetaminas en un informe de toxicología post mortem) muriera atropellada, y obligó a Uber y a otras empresas a frenar lo que había sido una rápida marcha hacia los servicios autónomos de transporte en las carreteras públicas.

Uber detuvo temporalmente las pruebas de sus coches autónomos, y reclutó nuevos conductores que recibieron formación tanto en pruebas de carretera como en pruebas de circuito cerrado, con la intención de que proporcionaran un mayor nivel de información técnica que los anteriores conductores de respaldo de seguridad de la empresa.

Los vehículos autónomos de Uber acabaron volviendo a la carretera casi un año después y circulando a menor velocidad y con mayores restricciones.

Un cúmulo de despropósitos con resultado de muerte

Es en este punto cuando la cosa se pone interesante desde el punto de vista de la responsabilidad sobre las acciones de máquinas gobernadas por inteligencia artificial.

En marzo de 2019, los fiscales se negaron a presentar cargos criminales contra Uber, como corporación, en la muerte de la peatón, y la Junta Nacional de Seguridad en el Transporte concluyó que el hecho de que la conductora de respaldo no vigilara la carretera mientras veía la televisión en su teléfono fue la causa principal del accidente.

Como factores que contribuyeron al accidente también se incluyeron los inadecuados procedimientos de seguridad de Uber y la ineficaz supervisión de sus conductores, la decisión de la peatón de cruzar la calle fuera de un cruce de peatones, y la insuficiente supervisión del Departamento de Transporte de Arizona de las pruebas de vehículos autónomos.

Hay que remarcar que muchas compañías de vehículos autónomos están haciendo sus pruebas en Arizona debido a que tiene menos reglamentación que otros estados en cuanto a esta materia.

La Junta también concluyó que la desactivación por parte de Uber de su sistema automático de frenado de emergencia aumentaba los riesgos asociados con la prueba de vehículos automáticos en las carreteras públicas. En lugar del sistema, Uber confió en el conductor humano de respaldo para intervenir.

Para acabar de rizar el rizo, la conductora de respaldo había pasado anteriormente más de cuatro años en prisión por dos condenas por delitos graves -haciendo declaraciones falsas al obtener beneficios de desempleo e intento de robo a mano armada- antes de empezar a trabajar como conductor de Uber, de acuerdo con los registros de la corte.

Tras todo este cúmulo de circunstancias, finalmente quien ha sido acusada de homicidio por negligencia ha sido la conductora de respaldo, la cual se ha declarado inocente.


¿Quién crees que es el responsable?

Ver Resultados

Cargando ... Cargando ...

¿Es realmente la conductora la culpable del accidente?

Ponerse a opinar sobre quién es el culpable es meterse en un terreno complicado y fangoso. Y ojo, no digo decidir o impartir justicia sobre el caso, sino simplemente opinar.

¿Debemos creer que después de todos los fallos que han ocurrido toda la culpa es de la conductora que iba mirando un programa de La voz (en su versión americana)?

Michael Bennett, profesor de la Universidad de Arizona especializado en conducción autónoma, cree que colocar a la conductora en el centro de todo es bastante injusto, cuando existen fallos regulatorios dentro del estado de Arizona y también verdaderos e importantes fallos por parte de Uber.

Para este experto, se está dirigiendo totalmente la culpa sobre esa conductora cuando la Administración y una gran empresa (inventora de una gran parte de la tecnología de conducción autónoma) están asumiendo una responsabilidad mínima y probablemente acaben saliendo del juicio sin apenas problemas.

Desde mi punto de vista, estoy totalmente de acuerdo con lo que opina este profesor. Aunque la conductora no estaba haciendo lo que debía, que era mirar a la carretera y anticiparse a posibles problemas si el coche no actuaba, no toda la culpa de lo que acabó pasando era suya.

Primero de todo, puede ser que aunque la conductora actuara correctamente fuera incapaz de evitar el accidente, ya que la peatón pasaba por un lugar por donde no debía y no había más luz que la de los focos del vehículo.

Y más allá de lo anterior, no es justo que se le eche a ella el mochuelo del accidente cuando tanto Uber, por su decisión (quizá negligente) de anular el sistema de frenado automático de sus coches, como la Administración por no disponer de una reglamentación más exhaustiva para este tipo de operaciones, tienen responsabilidad.

Este es un ejemplo claro de qué pasa cuándo la innovación va muy por delante de las legislaciones y de los necesarios análisis y previsiones desde el punto de vista ético y de responsabilidad social de las grandes empresas que realizan esas innovaciones.

Algo que, además, en Uber no nos debería extrañar ya que en el pasado ha sido noticia por su deficiente responsabilidad social corporativa, tal y como ya analizamos en este artículo.


¿De dónde vienes? ¿A dónde vas, Uber?


La inteligencia artificial y los principios éticos

La conductora ha quedado en libertad en espera de que se celebre el juicio en febrero de 2021 y mi lógica dice que quizá salga más o menos indemne y que, al menos la empresa sea considerada también responsable del accidente, aunque a saber en qué medida.

Pero es solo una mera opinión del que escribe. Quizá esté equivocado y la conductora se lleve todo ‘el marrón’, lo cual sería no solo muy malo para ella sino para el resto de ciudadanos si queremos que en este futuro, ya inmediato, innovación, responsabilidad social corporativa y legislación vayan de la mano para reducir la probabilidad de que sucedan casos como este, desde su inicio hasta sus últimas consecuencias.

Tal y como menciona Sergio Marín García en el cuaderno de Cátedra CaixaBank de Responsabilidad Social Corporativa titulado Ética e inteligencia artificial, la inteligencia artificial debe diseñarse y desarrollarse bajo una serie de principios éticos entre los que están la responsabilidad y rendición de cuentas, y la robustez y seguridad.

Por responsabilidad y rendición de cuentas se entiende que el diseño y el empleo de sistemas inteligentes deben estar precedidos por una clara asignación de responsabilidades ante los posibles daños y perjuicios que estos puedan ocasionar.

Y la robustez y seguridad exigen que los algoritmos sean suficientemente seguros, fiables y solidos para operar de manera precisa y segura, y para resolver errores o incoherencias durante todas las fases del ciclo de vida útil de los dispositivos.

Ambos principios parece que no han sido convenientemente aplicados en el caso que nos ocupa.

¿Se cumplirán esos principios y estarán las leyes y las empresas preparadas para cuando el coche autónomo ya no deba llevar un conductor de respaldo y se conduzca solo al 100%?

La prudencia nos indica que la respuesta anterior sea contestada con un sí, pero, por lo que parece, todavía queda mucho camino que andar para asegurarlo al cien por cien.

Comentarios

  1. Despues de leer el articulo sobre el accidente del vehiculo de Uber, deseo expresar mi opinion:
    – Comparemos el accidente relatado con otro identico pero con un conductor humano y seguramente diriamos que el conductor iba distraido, se durmio o la mala iluminacion no le permitio ver a la persona que cruzaba por el lugar no apropiado.
    Aqui en mi opinion esta punto nuclear la mal llama Inteligencia Artificial reacciono tan mal como el conductor negligente concluyendo que solo es Artificial pero no Inteligente, no supo o no pudo por su diseño distinguir una persona humana y proteger su vida.
    Todo lo demas sobre la conductora de apoyo, las medidas de seguridad complementarias, la reglamentacion de Arizona, cruzar por el lugar no adecuado, etc. solo hacen que dividir la responsabilidad y distraernos del punto nuclear se confio excesivamente en un sistema Artificial que no es suficientemente Inteligente. Gracias