El accidente de un piloto automático

Esta entrada fue originalmente publicada en SciLogs, la reproduzco aquí para tenerla más localizada 😉

La semana pasado tuvimos la noticia de que un coche con piloto automático se vio involucrado en un accidente con victima mortal. Esto me hace plantearme algunas cuestiones que me gustaría compartir con vosotros

El pasado 7 de mayo un coche Tesla modelo S estuvo involucrado en un accidente con fatales consecuencias para su conductor. Tesla en su comunicado admite que el sistema viene deshabilitado por defecto y que cuando se activa se le avisa al conductor de que tiene que seguir pendiente de la conducción ya que está en el estado de “Beta pública”. Y esta es la primera cuestión que me viene a la mente.

¿Beta pública?

Es la primera vez que veo este concepto en un producto que no sea de puro software, es decir, solo lo he visto en videojuegos, y allí ya sabes que te expones a que el ordenador se te quede colgado, pero juegas a un videojuego que está por salir. Sin embargo me parece que aplicar este concepto a un software en el que te puede ir la vida es otro cantar.

Las implicaciones legales que puede tener esto serán de vital importancia y algo sobre lo que se debería reflexionar. Creo que estos posts son un buen punto de partida para la reflexión:

¿Estamos preparados para el día en el que un coche autónomo mate a alguien?

Accidentes con coches autónomos: era cuestión de tiempo

La verdad es que legalmente puede ser un tema fascinante; dado que este es un blog de tecnología intentaré explicar la siguiente duda que me surge después de leer el comunicado de Tesla.

Tesla asegura que ha realizado más de 210 millones de kilometros y este es su primer accidente mortal. La verdad es que, no sé a vosotros, pero a mí me parecen muchos kilometros, muchísimos. Para hacer una comparación, yo he realizado alrededor de unos 500.000 km conduciendo, sin piloto automático, y hasta la fecha tampoco he tenido accidentes mortales, pero desde luego creo que he estado cerca de muchos y si aumentamos el kilometraje en un orden de magnitud o dos como han hecho en Tesla creo que en algún accidente grave me hubiese visto involucrado.

Creo que con ese nivel de kilometraje, y éxito, se puede decir que el coche es bastante seguro, quizás esto podría justificar el lanzamiento como beta pública del módulo de piloto automático. De hecho parece que funciona muy bien, os dejo un vídeo donde se puede ver cómo el coche del desgraciado protagonista de esta noticia graba cómo su coche evita una colisión con una grúa que se cruza en su camino.

En la descripción del vídeo comenta que él estaba totalmente distraído y que se dio cuenta del peligro porque “Tessy” (que así llamaba a su coche) le advirtió de que tenía que cambiar de carril. Simplemente fabuloso. En su canal hay más vídeos que muestran las bonanzas del piloto automático. Sin embargo creo que desgraciadamente confió demasiado en el piloto automático.

Y aquí es donde viene mi duda. En el comunicado de Tesla aseguran que, aunque está bajo investigación, ni el piloto automático ni el conductor vieron un tráiler blanco sobre un fondo muy brillante (deslumbrante, supongo).

En la imagen se ve un esquema de cómo un trailer cruza la calzada de una autopista. Y se observa como el coche automático fue incapaz de detectar el camión.

En la imagen anterior se ve cómo fue el accidente: un tráiler cruza la calzada perpendicularmente a la dirección del vehículo, y este no reacciona pasando por debajo del camión. Parece ser que era un tráiler blanco y que había una fuerte iluminación en el fondo. El sistema de visión artificial no lo vio, y puede ser (esto está por confirmar) que el sistema de radar, dado que la velocidad perpendicular del tráiler era muy lenta, lo interpretó como una valla fija fuera de la calzada.

¿El piloto automático no vio un tráiler blanco con el sol al fondo?

Esto a mí me resulta increíble. El conductor seguramente estaba distraído y completamente confiado en su coche, ya que si no, hubiese sido capaz de ver el tráiler. Pero la visión artificial falló de una forma muy grave.

En cualquier curso, taller, seminario, de visión artificial se comienza con el problema de la iluminación, que no es un problema trivial, pero sí es algo que se analiza desde las primeras fases del proyecto. ¿Por qué es un problema la iluminación? Porque lo que a nosotros nos puede parecer trivial, una sombra puede cambiar complementamente la forma del objeto para un sistema de visión artificial.

Pondré un ejemplo muy básico, fíjense en la siguiente imagen:

En la imagen se ve un cilindro iluminado lateralmente formando una sombra en la parte trasera del mismo.

Fijándonos en este imagen vamos a suponer que hacemos un tratamiento para detectar la forma, o poder calcular el volumen, etc. Uno de los tratamientos que se realizan es un umbralizado, es decir, se pasa la imagen a blanco y negro (si no es que se ha capturado ya así) y se selecciona un nivel de gris a partir del cual los píxeles se consideran blancos y todo lo demás será negro. Si hacemos esto con la imagen anterior, dependiendo del umbral tendremos un rectángulo de un tamaño u otro. Ya que hay un degradado de la sombra en la zona intermedia del cilindro. Pero no solo depende del umbral. También depende de la iluminación, al igual que dependerá de esta la detección de los bordes del objeto (problema típico e importante). Si iluminamos como está en la imagen es relativamente fácil detectar los bordes, aunque puede que detectemos un borde en la parte intermedia.

Ahora imaginemos que tenemos una fuerte iluminación por todas partes, y como vemos, si el fondo es también de similar color, tendremos un grave problema para detectar los bordes del cilindro, lo que lo convertirá en invisible para el sistema de visión artificial.

No sé si ha quedado claro, el ejemplo es muy sencillo, pero solo quería ilustrar que es algo que se trata desde el principio en visión artificial. Por lo que me parece muy grave que el sistema de visión de Tesla haya fallado con semejante situación. Es un problema muy dificil de tratar, ya que como todos sabéis en la calle te puedes encontrar iluminaciones de cualquier tipo, pero como comentaba a principio del post en 500.000 km yo me he encontrado situaciones de iluminación de todo tipo, y por supuesto la que se describe en el accidente. ¿Quién no ha conducido al amancener o atardecer con el Sol en frente? Por eso me parece muy extraño que este fallo de la visión artificial no estuviese contemplado con millones de kilometros de test. Y por supuesto con semejante fallo, yo no sacaría un piloto automático en beta pública. ¿Y vosotros?

Seguramente sea mucho más complejo de lo expuesto aquí, pero por eso decía que me surgen muchas dudas. Estaremos atentos a las noticias que puedan surgir, y sobre todo a la jurisprudencia que se pueda crear con este caso.

¿Nos seguimos leyendo?

@guardiolajavi

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s