Inteligencia Artificial

La Inteligencia Artificial que se hizo escritora

En el último programa de Ciencia para Todos, espacio que ADC Alicante mantiene en la emisora de Elche de la Cadena Ser, hablamos de inteligencia artificial y de la última publicación de Open AI sobre un modelo de lenguaje que es capaz de escribir textos coherentes a partir de un pequeño párrafo de inspiración.

También hablamos sobre las redes neuronales adversarias y la generación de caras que parecen reales pero no, como la siguiente chica:

A esta chica nunca te la encontrarás por la calle, pero igual sí a alguien que se le parezca.

La chica anterior ha sido generada accediendo a la página web de EstaPersonaNoExiste, cada vez que accedes te da una imagen de una persona generada artificialmente. Si te fijas bien, podrás ver detalles algo raros, así que te invito a que los comentes conmigo. Y claro estás cosas no se podían mostrar por la radio, pero aún así espero que disfrutéis del programa

Ir a descargar

¿Nos seguimos escuchando?
@guardiolajavi

El accidente de un piloto automático

Esta entrada fue originalmente publicada en SciLogs, la reproduzco aquí para tenerla más localizada 😉

La semana pasado tuvimos la noticia de que un coche con piloto automático se vio involucrado en un accidente con victima mortal. Esto me hace plantearme algunas cuestiones que me gustaría compartir con vosotros

El pasado 7 de mayo un coche Tesla modelo S estuvo involucrado en un accidente con fatales consecuencias para su conductor. Tesla en su comunicado admite que el sistema viene deshabilitado por defecto y que cuando se activa se le avisa al conductor de que tiene que seguir pendiente de la conducción ya que está en el estado de «Beta pública». Y esta es la primera cuestión que me viene a la mente.

¿Beta pública?

Es la primera vez que veo este concepto en un producto que no sea de puro software, es decir, solo lo he visto en videojuegos, y allí ya sabes que te expones a que el ordenador se te quede colgado, pero juegas a un videojuego que está por salir. Sin embargo me parece que aplicar este concepto a un software en el que te puede ir la vida es otro cantar.

Las implicaciones legales que puede tener esto serán de vital importancia y algo sobre lo que se debería reflexionar. Creo que estos posts son un buen punto de partida para la reflexión:

¿Estamos preparados para el día en el que un coche autónomo mate a alguien?

Accidentes con coches autónomos: era cuestión de tiempo

La verdad es que legalmente puede ser un tema fascinante; dado que este es un blog de tecnología intentaré explicar la siguiente duda que me surge después de leer el comunicado de Tesla.

Tesla asegura que ha realizado más de 210 millones de kilometros y este es su primer accidente mortal. La verdad es que, no sé a vosotros, pero a mí me parecen muchos kilometros, muchísimos. Para hacer una comparación, yo he realizado alrededor de unos 500.000 km conduciendo, sin piloto automático, y hasta la fecha tampoco he tenido accidentes mortales, pero desde luego creo que he estado cerca de muchos y si aumentamos el kilometraje en un orden de magnitud o dos como han hecho en Tesla creo que en algún accidente grave me hubiese visto involucrado.

Creo que con ese nivel de kilometraje, y éxito, se puede decir que el coche es bastante seguro, quizás esto podría justificar el lanzamiento como beta pública del módulo de piloto automático. De hecho parece que funciona muy bien, os dejo un vídeo donde se puede ver cómo el coche del desgraciado protagonista de esta noticia graba cómo su coche evita una colisión con una grúa que se cruza en su camino.

En la descripción del vídeo comenta que él estaba totalmente distraído y que se dio cuenta del peligro porque «Tessy» (que así llamaba a su coche) le advirtió de que tenía que cambiar de carril. Simplemente fabuloso. En su canal hay más vídeos que muestran las bonanzas del piloto automático. Sin embargo creo que desgraciadamente confió demasiado en el piloto automático.

Y aquí es donde viene mi duda. En el comunicado de Tesla aseguran que, aunque está bajo investigación, ni el piloto automático ni el conductor vieron un tráiler blanco sobre un fondo muy brillante (deslumbrante, supongo).

En la imagen se ve un esquema de cómo un trailer cruza la calzada de una autopista. Y se observa como el coche automático fue incapaz de detectar el camión.

En la imagen anterior se ve cómo fue el accidente: un tráiler cruza la calzada perpendicularmente a la dirección del vehículo, y este no reacciona pasando por debajo del camión. Parece ser que era un tráiler blanco y que había una fuerte iluminación en el fondo. El sistema de visión artificial no lo vio, y puede ser (esto está por confirmar) que el sistema de radar, dado que la velocidad perpendicular del tráiler era muy lenta, lo interpretó como una valla fija fuera de la calzada.

¿El piloto automático no vio un tráiler blanco con el sol al fondo?

Esto a mí me resulta increíble. El conductor seguramente estaba distraído y completamente confiado en su coche, ya que si no, hubiese sido capaz de ver el tráiler. Pero la visión artificial falló de una forma muy grave.

En cualquier curso, taller, seminario, de visión artificial se comienza con el problema de la iluminación, que no es un problema trivial, pero sí es algo que se analiza desde las primeras fases del proyecto. ¿Por qué es un problema la iluminación? Porque lo que a nosotros nos puede parecer trivial, una sombra puede cambiar complementamente la forma del objeto para un sistema de visión artificial.

Pondré un ejemplo muy básico, fíjense en la siguiente imagen:

En la imagen se ve un cilindro iluminado lateralmente formando una sombra en la parte trasera del mismo.

Fijándonos en este imagen vamos a suponer que hacemos un tratamiento para detectar la forma, o poder calcular el volumen, etc. Uno de los tratamientos que se realizan es un umbralizado, es decir, se pasa la imagen a blanco y negro (si no es que se ha capturado ya así) y se selecciona un nivel de gris a partir del cual los píxeles se consideran blancos y todo lo demás será negro. Si hacemos esto con la imagen anterior, dependiendo del umbral tendremos un rectángulo de un tamaño u otro. Ya que hay un degradado de la sombra en la zona intermedia del cilindro. Pero no solo depende del umbral. También depende de la iluminación, al igual que dependerá de esta la detección de los bordes del objeto (problema típico e importante). Si iluminamos como está en la imagen es relativamente fácil detectar los bordes, aunque puede que detectemos un borde en la parte intermedia.

Ahora imaginemos que tenemos una fuerte iluminación por todas partes, y como vemos, si el fondo es también de similar color, tendremos un grave problema para detectar los bordes del cilindro, lo que lo convertirá en invisible para el sistema de visión artificial.

No sé si ha quedado claro, el ejemplo es muy sencillo, pero solo quería ilustrar que es algo que se trata desde el principio en visión artificial. Por lo que me parece muy grave que el sistema de visión de Tesla haya fallado con semejante situación. Es un problema muy dificil de tratar, ya que como todos sabéis en la calle te puedes encontrar iluminaciones de cualquier tipo, pero como comentaba a principio del post en 500.000 km yo me he encontrado situaciones de iluminación de todo tipo, y por supuesto la que se describe en el accidente. ¿Quién no ha conducido al amancener o atardecer con el Sol en frente? Por eso me parece muy extraño que este fallo de la visión artificial no estuviese contemplado con millones de kilometros de test. Y por supuesto con semejante fallo, yo no sacaría un piloto automático en beta pública. ¿Y vosotros?

Seguramente sea mucho más complejo de lo expuesto aquí, pero por eso decía que me surgen muchas dudas. Estaremos atentos a las noticias que puedan surgir, y sobre todo a la jurisprudencia que se pueda crear con este caso.

¿Nos seguimos leyendo?

@guardiolajavi

Probabilidades, matemáticas y concursos de televisión

Aprovecho esta entrada para dejaros mi última participación en el espacio de Ciencia para Todos de Radio Elche Cadena Ser, espacio en el que participa la Asociación de Divulgación Científica de Elche.

En esta ocasión os cuento, mediante un ejemplo, cómo funciona el Teorema de Bayes o probabilidad condicionada. Espero que si os sirve alguna vez para ganar el hipotético concurso de televisión me invitéis a un fin de semana en el apartamento de Torrevieja 😉

Concursantes del Un, Dos, Tres antes de ganar el apartamento en Torrevieja

Concursantes del Un, Dos, Tres antes de ganar el apartamento en Torrevieja

Es curioso como nuestro sentido común puede verse tentado a cambiar las probabilidades que realmente tenemos de ganar, y veremos como reflexionando un poco podemos llegar a la conclusión correcta.

Sin más os dejo con el audio (no olvidaros de suscribiros al podcast de ADCElx. Está en iTunes y en iVoox)
Ir a descargar

¿Nos seguimos escuchando?

@guardiolajavi

Ciencia Ficción, Robótica e Inteligencia Artificial

Llevo tiempo dándole vueltas a una cuestión y es sobre la distancia que hay entre el desarrollo de la Inteligencia Artificial (IA) y la visión que tiene de esta la sociedad. Normalmente cuando hablas de IA la gente enseguida le viene a la mente los robots humanoides casi indistiguibles (o indistinguibles del todo) del ser humano, tipo Terminator o Replicantes de Blade Runner, y mira que el Terminator encarnado por el «Chuache» tenía una pinta de robot increible ¡Era lento hasta hartar! 😉

El «Chuache» ¿No me digáis que no parece un robot?

El caso es que esta visión sobre la IA hace que cualquier explicación de algún avance en inteligencia artificial parezca la tontería mas grande del mundo, y si no vean el siguiente vídeo:

En esos 13 minutacos (y eso que está el vídeo acelerado) se ve la increíble proeza de cómo 2 robots preparan una tortita para desayunar, a partir de un preparado que se saca de una botella, por cierto, que en el frigorífico solo estaba ese bote, si no hubieses podido ver cómo se preparan tortitas con un bote de mayonesa, o vete a saber. El caso es que cualquiera que vea este vídeo puede pensar: ¿Pero qué coj….? ¿En serio?

Esta tarea tan sencilla para nosotros es una verdadera proeza para un robot. Note la audiencia, que las ordenes han sido dadas en lenguaje natural, es decir, el robot ha entendido que querías unas tortitas y ha puesto toda la voluntad para proporcionártelas, incluso buscando la receta, o el modo de hacerlas, y localizando los ingredientes. En este caso con el preparado se lo han puesto fácil, si tiene que buscar la harina, la leche, romper un huevo y batir todos los ingredientes, me imagino que tienes que pedirle la tortitas dos días antes, o no desayunas. Pero la dificultad del ejercicio es brutal, y ha funcionado de manera autónoma. Realmente increíble. Sí amigos, esto es un logro increíble, aunque al lado del robot filósofo que había visto cosas más allá de Orión parezca una tontería.

Quizá habrá avances que a los ojos del lego parezcan más impresionantes, cómo el de IBM y su Watson ganando el concurso de Jeopardy. Este concurso es el típico de preguntas y respuestas tipo Trivial pero formuladas muchas de ellas de una manera enrevesada.

En el vídeo se ve cómo preguntan por un famoso nadador de la siguiente forma: «Mirolad Cavic casi consigue arruinar la olimpiada perfecta de este hombre en 2008 perdiendo contra él por una centésima de segundo» Es decir no solo preguntan en lenguaje natural si no que Watson debe ser capaz de extraer la información relevante, entender los giros en el lenguaje, buscar la información en su base de datos, y dar la respuesta correcta. Que por supuesto es Michael Phelps. Supongo que un ser humano normal hubiese jugado la baza de «Debe ser éste» y jugarsela, pero Watson intenta arreglárselas para asegurarse que la respuesta es correcta. Por cierto aquí el épico vídeo:

¿Alucinante verdad? Y no me refiero a la proeza de Michel Phelps y su remontada, si no a lo conseguido por Watson. Pero Watson es un supercomputador, esto no le quita mérito, pero implementar esa capacidad de cálculo en un dispositivo portátil es algo que aún está en el terreno de la ciencia ficción, y no nos engañemos, necesitaríamos esa capacidad de cálculo para llevar un robot a cualquier concurso y hacerlo pasar por una persona normal, y aún así… no sé yo.

Pero también se están haciendo avances en la IA desde otros campos, y esa sinergia puede ser muy interesante. De hecho en la siguiente charla de Helena Matute (@HelenaMatute) se presenta cómo la psicología muestra que si seguimos los modelos de aprendizaje que conocemos, y damos esa libertad y esa flexibilidad que tienen los humanos para aprender tendremos robots con sesgos cognitivos como los que tenemos nosotros. Es decir, podríamos encontrarnos a robots labradores bailando la danza de la lluvia para regar sus terrenos. 😉 Algo que, al menos yo, no conocía y que me parece alucinante.

Pero también está la vertiente de estudiar la respuesta que tenemos los humanos frente al uso de robots, cuando estos presentan ciertas cualidades en cuanto a su personalidad, comportamiento, etc. Podemos programar los robots para que en la interacción con humanos muestren cierta personalidad, sean amables, o bruscos, reconozcan nuestro tono de voz, y en función de esto respondan de una manera u otra. Algo que podría ser muy útil en robots asistenciales, que cuiden de personas mayores por ejemplo, para que estos se sientan más cómodos y menos intimidados por la presencia de ese artilugio en su casa.

El siguiente vídeo es una charla de Helena Matute en la que presenta todos estos conceptos y que la verdad te aconsejo que veas, es más, te aconsejo que veas hasta el pequeño coloquio al final de la charla donde se encuentra el motivo que me lleva a escribir este post. Si ya sé, que tendría que haber ido al grano, pero es que me he liado…

En la charla Helena Matute plantea el hecho de que sería interesante que la humanidad empezase a plantearse el hecho de cómo y en que grado queremos que los robots sean o tengan apariencia y comportamientos humanos. Ya que estos comportamientos nos podrían llevar a ciertos problemas éticos o incluso a problemas de interacción con ellos, ya que cómo se muestra en el minuto 57:30 vemos cómo nos costaría apagar a un robot que nos está suplicando que no le apaguemos, que se portará bien y no nos molestará. Ya me imagino yo una Roomba con ojitos que nos diga eso y nos pasamos toda la noche con la aspiradora enchufada.

Pero el caso es que como bien dice Helena lo de los replicantes de Blade Runner están muy lejos, pero mucho, que podamos discutir hacia donde ir no significa que estemos cerca ni mucho menos, es más, solamente tienes que pensar en ¿donde tienen las baterías los replicantes? Un robot humanoide con todos los motores que lleva para realizar expresiones faciales necesita de una buena cantidad de energía, no digamos para alimentar un superordenador tipo Watson. Podemos debatir donde y cómo queremos llegar, pero que todo el mundo sepa que para eso nos falta mucho, pero mucho.

El debate es interesante, y nos puede llevar a mejorar ciertos aspectos que desde el punto de vista ingenieril no se tenían muy en cuenta pero que son importantes, sobre cómo se interacciona con nuestro robot, y cómo hacerlo más fácil, intuitivo, y agradable. Pero los replicantes son hoy por hoy, igual de ciencia ficción que hace 30 años.

Pero en caso de que podamos hacerlo ¿Los haremos esclavos? ¿Quien nos daría derecho a eso? ¿Qué problemas legales aparecerían en caso de que nuestro replicante haga alguna trastada? ¿Les pondremos a todos la voz de Constantino Romero?

Lo dicho, todo muy interesante, pero tenemos mucho tiempo para plantearnos estos problemas así que no nos pongamos nerviosos cómo algunos de los presentes en la charla de Helena Matute que ya veían el fin del mundo con los robots militares, un nuevo génesis bíblico o una conspiración detrás del robot bailarín que da paso a los anuncios en la Sexta. Por eso me asusta las conclusiones que se pueden sacar después de leer artículos cómo este: Él, humano. Que está muy bien escrito y presenta las mismas cuestiones que presenta Helena Matute, pero me gustaría saber que concluyen algunos al leerlo, o al mal leerlo, ya que si te quedas con las frases destacadas te puede parecer que la singularidad se producirá este mismo verano, bueno en verano no que los investigadores están de vacaciones, el invierno que viene.

¿Nos seguimos leyendo?

@guardiolajavi

Más debate:

Más debate que se originó a raíz de esta interesantísima charla de Helena Matute puedes encontrarlo en la entrada «Cognición, inteligencia artificial y el apocalipsis» de @gazkune.

 

¿Drones vas con mantón de manila?

La noticia de esta semana, en lo que tecnología se refiere, es la intención de Amazon de repartir pedidos con Drones. Este anuncio en su web ha tenido una repercusión mediática enorme, incluso en telediarios, os dejo con el vídeo de promoción:

En el vídeo se ve como el usuario hace el pedido, elije el método de envío, y en la central un drone coge el «tupperware» y se lo lleva a casa, una bonita casa con jardín rodeada de un prado. Todo muy idílico.

Pero ¿y si tuviésemos que hacer ese reparto en una ciudad, digamos, normal? Creo que la cosa no sería tan sencilla, es más, de hecho creo que Amazon ni se lo ha planteado, todo esto me suena a una campaña de marketing, muy buena, y barata, pero marketing al fin y al cabo. Intentaré exponer los problemas que yo le veo a todo esto. Pero antes me gustaría dejar claro la respuesta a una pregunta que me parece clave:

¿Es esto tecnológicamente posible? La respuesta es un rotundo , incluso en una ciudad normal. Pero… hay tantos peros, que no creo que lo veamos en 2015, ni en un futuro relativamente cercano.

Empecemos con los «problemillas» que le veo yo a esto, no me centraré en los problemas físicos que se apuntan en este post:

Physics of the Amazon Octocopter Drone

En el artículo ya se apuntan algunos problemas sobre baterías, alcance, etc.

Primero de todo, descartamos este tipo de envío para pequeñas ciudades que no tengan un almacén como el que aparece en el vídeo de Amazon, ya que si no el envío en 30 minutos no funcionaría.

El segundo problema que le veo, y que dada la poca información que hay no me parece un problema fácil, es que el drone recibe un «tupperware» con el artículo. Se supone que es un vehículo autónomo, con lo que tiene que calcular la ruta hacía su destino. Podréis imaginar que esto no es nada sencillo, pero por supuesto está solucionado, todos llevamos un navegador en el móvil. Ningún problema, pero en el almacén se supone que hay que decirle al drone la dirección del pedido. Para esto se le pondrá una especie de código de barras o etiqueta RFID, que le diga al drone el destino y este comience a calcular. Así que añadamos al cacharro el navegador, lector de código de barra o RFID. Sí, se pueden hacer pequeños pero estamos añadiendo sistemas a un pequeño cacharro que lo va encareciendo.

En este punto podríamos pensar que el drone no tiene porqué calcular la ruta, esta podría calcularse en un ordenador  y que éste le pase la ruta, según el vídeo con algún sistema inalámbrico, ya que no vemos a ningún operador cargarle la ruta. De todas formas el navegador sigue siendo necesario para saber por donde pasar, y por si tiene que recalcular alguna ruta, aunque esto en un sistema aéreo no muy abarrotado puede que no sea necesario.

Bueno ya hemos visto que hay que añadirle varias cosillas imprescindibles, y aún no hemos salido del almacén. Seguimos:

Salimos del almacén, hasta ahora el único bloque de inteligencia artificial que se ha usado es el navegador, que no está mal, pero cuando salimos al mundo exterior, la inteligencia artificial que debe ser capaz de manejar el drone empieza a crecer rápidamente, veamos:

Presuponemos que estamos en una ciudad normal, con sus edificios, sus cables, etc. En principio el recorrido podría ser en línea recta, es decir, el drone se eleva una cierta altura para superar todos los edificios de la ciudad, y avanzamos en línea recta hacía el destino. Pero una vez sobre el edificio, ¿qué? esos últimos metros son cruciales.

En este punto de la historia podemos imaginar dos soluciones:

La primera y más sencilla es que haya un «cuadri-puerto» en la terraza del edificio, y que el drone aterrice allí y deje el paquete. Por supuesto esto supone una infraestructura que Amazon tendría que proporcionar a toda la ciudad, algo que se me antoja bastante difícil. Pero aún en estas condiciones (las más ideales que se me ocurren) el cacharro tendría que aterrizar en su sitio, cosa que no es sencilla, ya tenemos que colocar sensores, cámaras, reconocimiento del área de aterrizaje y el control de aterrizaje. Estos deberían ser capaces de detectar cables, algo que no veo muy sencillo, la verdad. Para hacernos una idea de como está el estado del arte en este sentido, os dejo esta noticia del 11 de Julio de 2013, donde se anuncia como un éxito sin precedentes, y lo es, el aterrizaje de un drone en un porta-aviones. Evidentemente son dos tipos de drones muy distintos, pero un porta-aviones es mucho más grande que mi terraza, y además en mar abierto no hay cables. En descargo del drone de Amazon parece mucho más fácil aterrizar un cuadricóptero.

La segunda que me puedo imaginar es que el drone entre por la ventana a tu casa, eso sí sería algo operativo, y además sigue siendo posible, pero muy, muy, pero que muy difícil. Primero localizar la ventana, algo que no aparece en la información de Google-Maps, pero además centrarse para que pueda pasar por ella, y que reconozca tu cara, para saber que ha llegado a destino, y además de esta forma comprueba que entrega el pedido a quien debe. Algo que hasta ahora no se ha hecho, y además no se sabe cómo lo va a hacer.

Como vemos le hemos añadido, cámaras, reconocimiento facial, sensores de proximidad, etc. Y a todo esto desarrollar los algoritmos para que funcionen en todas estas condiciones da para varias tesis, y además no será nada barato, ni el desarrollo, ni el cacharro resultante.

Hasta ahora he obviado una cosa, legalmente aún no es posible, como explica @jeibros, en esta entrada.

Así que yo creo firmemente que esto no ha sido más que una campaña publicitaria, que les ha salido muy, pero que muy barata.

Pero, y si, en vez de ser el vehículo completamente autónomo, hubiese alguien en el almacén dirigiendo a distancia el drone, esto sería una solución mucho más sencilla, aunque claro tienes que tener a alguien allí, y además estaríamos en manos de los ciber-criminales que podrían tomar el control de estos. Así que habría que invertir en seguridad, cómo no 😉 .

Para terminar, la verdad es que lo primero que me vino a la cabeza cuando vi el drone aterrizar en el jardín de la casa, es que el perro se avalanzaba contra el cacharro, y este ya no volvía al almacén de Amazon ;-( . Pero los chicos de College-Humor ya se han imaginado cómo podría ser la información de seguimiento del paquete con este sistema. Imperdible 😉 .

Informe de seguimiento de la entrega.

Informe de seguimiento de la entrega.

Todo lo mostrado puede parecer un chiste, y lo es, pero en realidad algunos de los casos son posibles y la inteligencia artificial del drone tendría que poder actuar. Así que entre el precio que podría tener uno de estos drones, y la cantidad de ellos que serían necesarios para hacer cargo a todos los pedidos, creo que sigue siendo mucho más rentable comprar un furgoneta, aunque sea de primera mano, y poner a alguien a repartir, donde además en una furgoneta de las pequeñas caben por lo menos 100 tupperwares de esos.

Además sería una faena que pidas a Amazon, Artificial Intelligence: a Modern Approach, y justo en ese momento se produzca la singularidad, vaya cargo de conciencia. 😉

Pero vamos, ojalá me equivoque y Amazon disponga de este sistema en 2015, porque tienen pasta suficiente para invertir en desarrollar todos estos sistemas y más.

¿Nos seguimos leyendo?

@guardiolajavi

____ Actualización 09/12/2013 ________

Simplemente quería incluir un enlace más donde habla un experto, y sobre todo añade una visión distinta como es la de promover una red de reparto con Drones, con estaciones habilitadas, algo que sería mucho más sencillo y viable, pero sobre todo podría ser interesante en países en desarrollo donde no hay otra forma de acceso. Un punto de vista muy interesante. Además que también es de agradecer que un experto diga que eso del 2015 lo ve muy optimista 😉

A drone delivery expert answers the big questions about amazons plans

____ Actualización 11/12/2013 ________

Se siguen acumulando las declaraciones de expertos sobre el drone de Amazon, esta vez Rodrigo Valdivieso responsable de la empresa Elimco que tiene una línea de drones para distintas aplicaciones civiles, es entrevistado por Carlos Alsina en Onda Cero.

Podéis escuchar el audio, más que interesante aquí:

Oirlo en iVoox

____ Actualización 16/12/2013 ________

¡¡Juas!! Groupon se apunta a los chistes sobre los drones de Amazon, ahora pretenden repartir con catapulta, un producto fiable y testado 😉

____ Actualización 20/12/2013 ________

Eugene Kaspersky también escribe sobre los drones haciendo hincapié en la seguridad y en la posible intervención de las señales de GPS.

¿Pueden los drones sustituir al trineo de Papa Noel?