Tecnología

¿Qué sabes de robótica?

A continuación os dejo un enlace donde puedes acceder a un juego tipo “¿Quien quiere ser millonario?” en el que me pidieron colaboración.

Esta pensado para estudiantes de tecnología de la ESO, (Bueno, en realidad no estoy seguro de en que asignatura se da este tipo de contenidos) pero también sirve para introducir unos conceptos básicos sobre robótica o inteligencia artificial de una manera amena. Espero que os pueda ser de utilidad.

Imagen del juego

Imagen del juego

http://proyectodescartes.org/escenas-aux/jug-10×10/50×15-fich.html

Por último dar las gracias a Santos Mondéjar por hacerme participe de este tipo de iniciativas.

¿Nos seguimos leyendo?

@guardiolajavi

Anuncios

El accidente de un piloto automático

Esta entrada fue originalmente publicada en SciLogs, la reproduzco aquí para tenerla más localizada 😉

La semana pasado tuvimos la noticia de que un coche con piloto automático se vio involucrado en un accidente con victima mortal. Esto me hace plantearme algunas cuestiones que me gustaría compartir con vosotros

El pasado 7 de mayo un coche Tesla modelo S estuvo involucrado en un accidente con fatales consecuencias para su conductor. Tesla en su comunicado admite que el sistema viene deshabilitado por defecto y que cuando se activa se le avisa al conductor de que tiene que seguir pendiente de la conducción ya que está en el estado de “Beta pública”. Y esta es la primera cuestión que me viene a la mente.

¿Beta pública?

Es la primera vez que veo este concepto en un producto que no sea de puro software, es decir, solo lo he visto en videojuegos, y allí ya sabes que te expones a que el ordenador se te quede colgado, pero juegas a un videojuego que está por salir. Sin embargo me parece que aplicar este concepto a un software en el que te puede ir la vida es otro cantar.

Las implicaciones legales que puede tener esto serán de vital importancia y algo sobre lo que se debería reflexionar. Creo que estos posts son un buen punto de partida para la reflexión:

¿Estamos preparados para el día en el que un coche autónomo mate a alguien?

Accidentes con coches autónomos: era cuestión de tiempo

La verdad es que legalmente puede ser un tema fascinante; dado que este es un blog de tecnología intentaré explicar la siguiente duda que me surge después de leer el comunicado de Tesla.

Tesla asegura que ha realizado más de 210 millones de kilometros y este es su primer accidente mortal. La verdad es que, no sé a vosotros, pero a mí me parecen muchos kilometros, muchísimos. Para hacer una comparación, yo he realizado alrededor de unos 500.000 km conduciendo, sin piloto automático, y hasta la fecha tampoco he tenido accidentes mortales, pero desde luego creo que he estado cerca de muchos y si aumentamos el kilometraje en un orden de magnitud o dos como han hecho en Tesla creo que en algún accidente grave me hubiese visto involucrado.

Creo que con ese nivel de kilometraje, y éxito, se puede decir que el coche es bastante seguro, quizás esto podría justificar el lanzamiento como beta pública del módulo de piloto automático. De hecho parece que funciona muy bien, os dejo un vídeo donde se puede ver cómo el coche del desgraciado protagonista de esta noticia graba cómo su coche evita una colisión con una grúa que se cruza en su camino.

En la descripción del vídeo comenta que él estaba totalmente distraído y que se dio cuenta del peligro porque “Tessy” (que así llamaba a su coche) le advirtió de que tenía que cambiar de carril. Simplemente fabuloso. En su canal hay más vídeos que muestran las bonanzas del piloto automático. Sin embargo creo que desgraciadamente confió demasiado en el piloto automático.

Y aquí es donde viene mi duda. En el comunicado de Tesla aseguran que, aunque está bajo investigación, ni el piloto automático ni el conductor vieron un tráiler blanco sobre un fondo muy brillante (deslumbrante, supongo).

En la imagen se ve un esquema de cómo un trailer cruza la calzada de una autopista. Y se observa como el coche automático fue incapaz de detectar el camión.

En la imagen anterior se ve cómo fue el accidente: un tráiler cruza la calzada perpendicularmente a la dirección del vehículo, y este no reacciona pasando por debajo del camión. Parece ser que era un tráiler blanco y que había una fuerte iluminación en el fondo. El sistema de visión artificial no lo vio, y puede ser (esto está por confirmar) que el sistema de radar, dado que la velocidad perpendicular del tráiler era muy lenta, lo interpretó como una valla fija fuera de la calzada.

¿El piloto automático no vio un tráiler blanco con el sol al fondo?

Esto a mí me resulta increíble. El conductor seguramente estaba distraído y completamente confiado en su coche, ya que si no, hubiese sido capaz de ver el tráiler. Pero la visión artificial falló de una forma muy grave.

En cualquier curso, taller, seminario, de visión artificial se comienza con el problema de la iluminación, que no es un problema trivial, pero sí es algo que se analiza desde las primeras fases del proyecto. ¿Por qué es un problema la iluminación? Porque lo que a nosotros nos puede parecer trivial, una sombra puede cambiar complementamente la forma del objeto para un sistema de visión artificial.

Pondré un ejemplo muy básico, fíjense en la siguiente imagen:

En la imagen se ve un cilindro iluminado lateralmente formando una sombra en la parte trasera del mismo.

Fijándonos en este imagen vamos a suponer que hacemos un tratamiento para detectar la forma, o poder calcular el volumen, etc. Uno de los tratamientos que se realizan es un umbralizado, es decir, se pasa la imagen a blanco y negro (si no es que se ha capturado ya así) y se selecciona un nivel de gris a partir del cual los píxeles se consideran blancos y todo lo demás será negro. Si hacemos esto con la imagen anterior, dependiendo del umbral tendremos un rectángulo de un tamaño u otro. Ya que hay un degradado de la sombra en la zona intermedia del cilindro. Pero no solo depende del umbral. También depende de la iluminación, al igual que dependerá de esta la detección de los bordes del objeto (problema típico e importante). Si iluminamos como está en la imagen es relativamente fácil detectar los bordes, aunque puede que detectemos un borde en la parte intermedia.

Ahora imaginemos que tenemos una fuerte iluminación por todas partes, y como vemos, si el fondo es también de similar color, tendremos un grave problema para detectar los bordes del cilindro, lo que lo convertirá en invisible para el sistema de visión artificial.

No sé si ha quedado claro, el ejemplo es muy sencillo, pero solo quería ilustrar que es algo que se trata desde el principio en visión artificial. Por lo que me parece muy grave que el sistema de visión de Tesla haya fallado con semejante situación. Es un problema muy dificil de tratar, ya que como todos sabéis en la calle te puedes encontrar iluminaciones de cualquier tipo, pero como comentaba a principio del post en 500.000 km yo me he encontrado situaciones de iluminación de todo tipo, y por supuesto la que se describe en el accidente. ¿Quién no ha conducido al amancener o atardecer con el Sol en frente? Por eso me parece muy extraño que este fallo de la visión artificial no estuviese contemplado con millones de kilometros de test. Y por supuesto con semejante fallo, yo no sacaría un piloto automático en beta pública. ¿Y vosotros?

Seguramente sea mucho más complejo de lo expuesto aquí, pero por eso decía que me surgen muchas dudas. Estaremos atentos a las noticias que puedan surgir, y sobre todo a la jurisprudencia que se pueda crear con este caso.

¿Nos seguimos leyendo?

@guardiolajavi

Probabilidades, matemáticas y concursos de televisión

Aprovecho esta entrada para dejaros mi última participación en el espacio de Ciencia para Todos de Radio Elche Cadena Ser, espacio en el que participa la Asociación de Divulgación Científica de Elche.

En esta ocasión os cuento, mediante un ejemplo, cómo funciona el Teorema de Bayes o probabilidad condicionada. Espero que si os sirve alguna vez para ganar el hipotético concurso de televisión me invitéis a un fin de semana en el apartamento de Torrevieja 😉

Concursantes del Un, Dos, Tres antes de ganar el apartamento en Torrevieja

Concursantes del Un, Dos, Tres antes de ganar el apartamento en Torrevieja

Es curioso como nuestro sentido común puede verse tentado a cambiar las probabilidades que realmente tenemos de ganar, y veremos como reflexionando un poco podemos llegar a la conclusión correcta.

Sin más os dejo con el audio (no olvidaros de suscribiros al podcast de ADCElx. Está en iTunes y en iVoox)
Ir a descargar

¿Nos seguimos escuchando?

@guardiolajavi

GPS, Einstein e InterStellar

Hola chic@s:

Os dejo el podcast de hoy en Radio Elche. En este podcast intento explicar cómo funciona el GPS gracias a Einstein y qué tiene que ver con la película InterStellar. Espero que os guste.

Constelación GPS

Satélites GPS

http://www.ivoox.com/gps-einstein-e-interstellar_md_8973863_wp_1.mp3″ Ir a descargar

¿Nos seguimos leyendo? ¿Y escuchando?

@guardiolajavi

Toc, toc, toc, David; Toc, toc, toc David; Toc, toc, toc, David

Tengo el placer de presentaros el resultado de una idea loca que surgió de intentar unir dos asociaciones nuevas y en las que tengo puestas muchas ilusiones. Una es la Asociación de Divulgación Científica de Elche (@adcelx) y otra es la Asociación de Medios audiovisuales del Vinalopo (@AMA_fest). Para unir estas dos asociaciones se me ocurrió que podría entrevistar al asesor científico de la serie de televisión “The Big Bang Theory”.

El logo de la serie. ¿Te suena verdad?

Como se dice en mi pueblo el “no” ya lo tenía, así que contacte con David Saltzberg por correo electrónico y cual fue mi sorpresa al encontrarme a una persona extremadamente amable y dispuesta a colaborar, abusando de su confianza le mandé una retahíla de preguntas que os presentaré a continuación. Este post también aparecerá en las web de las asociaciones implicadas, así que os recomiendo que os paséis por allí también aunque solo sea a curiosear.

(más…)

Invisibilidad Do-It-Yourself

Quizá estás últimas semanas os haya llegado la noticia del desarrollo de una invisibilidad para longitudes de onda del visible, vamos para nuestros ojillos. La he llegado a ver en el telediario de Antena 3. Realizaban este truco con un método simple y utilizando sólo cuatro lentes. La noticia en español la podéis leer muy bien explicada aquí:

Un atajo con lentes para conseguir la invisibilidad

El problema es que a mi me parece que llamar a esto invisibilidad es cómo etiquetar a un Fiat 600 rojo como “Ferrari F40 urbano”. Vamos, un pelín pretencioso.

El truco  (sí es un truco) que hacen en la universidad de Rochester, es utilizar 4 lentes convergentes para poder dirigir los haces de luz de forma que haya zonas entre las lentes en las que se pueden introducir objetos que quedarán escondidos a la vista. Siempre que estés situado a la salida y en línea con las lentes. Tiene cierto margen de maniobra dependiendo del tamaño de dichas lentes.

Intentaré explicar esto un poquillo mejor ya que se trata de óptica geométrica, y con un par de esquemas se puede entender fácilmente.

Una lente convergente es aquella que dirige los haces de luz que vienen del infinito (entiéndase infinito como algo que está lo suficientemente lejos) hacia un punto llamado foco. En este foco será donde se concentren los haces de luz, es algo similar a lo que hacemos con una lupa (lente convergente) cuando concentramos la luz del Sol en un punto para poder prender fuego a una hojilla de papel. En la novela “El señor de los moscas” utilizan las gafas de un niño que no veía bien de cerca para encender una hoguera. En realidad, en la novela es un niño miope, pero con las gafas de un miope no se pueden concentrar los rayos del sol ya que son lentes divergentes. En el siguiente gráfico vemos cómo se representa esto:

Trazado de rayos de una lente convergente

Lente convergente concentrando la luz en el foco “f”

Lo importante de este gráfico es que al desviar los rayos de luz hay zonas detrás de la lente por donde la luz no pasa. Si hubiese una forma de reconducir los rayos de luz para que siguiesen la misma trayectoria que llevaban de origen, se podría colocar un objeto en la zona por donde no pasa la luz. Al no incidir la luz sobre el objeto, éste estaría oculto a alguien que mirase a través de las lentes. Y dado que los rayos de luz siguen la misma trayectoria inicial, nosotros no notaríamos que los rayos de luz han sido modificados.

Como hemos dicho las lentes convergentes concentran los haces de luz que vienen del infinito en el foco, pues bien, si los rayos de luz provienen del foco la lente convergente los mandará al infinito, así que si colocamos una lente con la misma distancia focal a la distancia correcta para que coincida con la distancia focal de la lente anterior, los rayos de luz se volverán a enviar por la trayectoria que venían. En el siguiente gráfico se muestra ésta configuración:

Zona de invisibilidad entre dos lentes convergentes.

Zona de invisibilidad entre dos lentes convergentes.

En la figura hay una zona (zona gris) donde podríamos colocar un objeto y no se vería cuando se mira a través de las lentes. ¡Bonito truco! ¿Verdad? Pues algo parecido es lo que han hecho los de la noticia que comenté al principio. El siguiente esquema es el utilizado por los investigadores de la universidad de Rochester:

Invisibilidad con 4 lentes

Invisibilidad con 4 lentes

En (c) se muestra cómo consiguen una zona donde se puede esconder cualquier objeto, siempre que no se obstruya el centro de la línea de propagación de la luz. Utilizando 4 lentes consiguen una zona de “invisibilidad” más alargada. Invisibilidad lo pongo entre comillas porque ya digo que me parece un poco pretencioso.

En la siguiente imagen se ve en el laboratorio cómo queda el trazado de rayos:

Trazado de rayos de las 4 lentes.

Trazado de rayos de las 4 lentes.

Sin embargo el vídeo del efecto es muy curioso y espectacular, siempre que estés colocado en el buen sitio:

Invisibilidad con 4 lentes.

Invisibilidad con 4 lentes.

Y ahora que sabéis cómo funciona esto ¿no pensáis que se puede hacer esto mismo con sólo 2 lentes? La respuesta es sí, y para eso aquí tenéis un vídeo grabado en un momentico:

Bonito ¿no? Bueno, la verdad es que el trabajo realizado en la Universidad de Rochester tiene algo más de mérito, ya que desarrollan la óptica geométrica mediante matrices de Jones para calcular las relaciones que deben existir con las distancias focales de las lentes para conseguir el efecto deseado. Y mi vídeo tiene truco, ¿os habéis dado cuenta? la clave está en la segunda figura de este post. Y que si no habéis adivinado ya, os la desvelo en la siguiente imagen:

Invisibilidad con 2 lentes.

Invisibilidad con 2 lentes, pero invierte la imagen

Efectivamente, la imagen a la salida del sistema se invierte, conseguimos una zona de “escondite” pero la imagen a través de las lentes está invertida, como he usado una rejilla no se aprecia, pero con un fondo asimétrico notaríamos este efecto, por eso se necesitan 4 lentes, para que las lentes interiores vuelvan a invertir la imagen y quedarnos como estábamos.

Estos investigadores de Rochester hace tiempo también hablaron de invisibilidad con sistemas de bajo coste. Eran también truquillos de óptica geométrica. Puedes leer sobre esto aquí. Pero si queréis leer algo sobre invisibilidad de verdad, con metamateriales y tecnologías más avanzadas podéis leer:

Dispositivos de invisibilidad

¿Nos seguimos leyendo?

@guardiolajavi

Por cierto esta entrada participa en la Edición LVII del Carnaval de la Física del Carnaval de la Física, cuyo anfitrión es el blog Divulgación.

Referencias:

Joseph S. Choi, John C. Howell. Paraxial Ray Optics Cloaking (PDF)

Ciencia Ficción, Robótica e Inteligencia Artificial

Llevo tiempo dándole vueltas a una cuestión y es sobre la distancia que hay entre el desarrollo de la Inteligencia Artificial (IA) y la visión que tiene de esta la sociedad. Normalmente cuando hablas de IA la gente enseguida le viene a la mente los robots humanoides casi indistiguibles (o indistinguibles del todo) del ser humano, tipo Terminator o Replicantes de Blade Runner, y mira que el Terminator encarnado por el “Chuache” tenía una pinta de robot increible ¡Era lento hasta hartar! 😉

El “Chuache” ¿No me digáis que no parece un robot?

El caso es que esta visión sobre la IA hace que cualquier explicación de algún avance en inteligencia artificial parezca la tontería mas grande del mundo, y si no vean el siguiente vídeo:

En esos 13 minutacos (y eso que está el vídeo acelerado) se ve la increíble proeza de cómo 2 robots preparan una tortita para desayunar, a partir de un preparado que se saca de una botella, por cierto, que en el frigorífico solo estaba ese bote, si no hubieses podido ver cómo se preparan tortitas con un bote de mayonesa, o vete a saber. El caso es que cualquiera que vea este vídeo puede pensar: ¿Pero qué coj….? ¿En serio?

Esta tarea tan sencilla para nosotros es una verdadera proeza para un robot. Note la audiencia, que las ordenes han sido dadas en lenguaje natural, es decir, el robot ha entendido que querías unas tortitas y ha puesto toda la voluntad para proporcionártelas, incluso buscando la receta, o el modo de hacerlas, y localizando los ingredientes. En este caso con el preparado se lo han puesto fácil, si tiene que buscar la harina, la leche, romper un huevo y batir todos los ingredientes, me imagino que tienes que pedirle la tortitas dos días antes, o no desayunas. Pero la dificultad del ejercicio es brutal, y ha funcionado de manera autónoma. Realmente increíble. Sí amigos, esto es un logro increíble, aunque al lado del robot filósofo que había visto cosas más allá de Orión parezca una tontería.

Quizá habrá avances que a los ojos del lego parezcan más impresionantes, cómo el de IBM y su Watson ganando el concurso de Jeopardy. Este concurso es el típico de preguntas y respuestas tipo Trivial pero formuladas muchas de ellas de una manera enrevesada.

En el vídeo se ve cómo preguntan por un famoso nadador de la siguiente forma: “Mirolad Cavic casi consigue arruinar la olimpiada perfecta de este hombre en 2008 perdiendo contra él por una centésima de segundo” Es decir no solo preguntan en lenguaje natural si no que Watson debe ser capaz de extraer la información relevante, entender los giros en el lenguaje, buscar la información en su base de datos, y dar la respuesta correcta. Que por supuesto es Michael Phelps. Supongo que un ser humano normal hubiese jugado la baza de “Debe ser éste” y jugarsela, pero Watson intenta arreglárselas para asegurarse que la respuesta es correcta. Por cierto aquí el épico vídeo:

¿Alucinante verdad? Y no me refiero a la proeza de Michel Phelps y su remontada, si no a lo conseguido por Watson. Pero Watson es un supercomputador, esto no le quita mérito, pero implementar esa capacidad de cálculo en un dispositivo portátil es algo que aún está en el terreno de la ciencia ficción, y no nos engañemos, necesitaríamos esa capacidad de cálculo para llevar un robot a cualquier concurso y hacerlo pasar por una persona normal, y aún así… no sé yo.

Pero también se están haciendo avances en la IA desde otros campos, y esa sinergia puede ser muy interesante. De hecho en la siguiente charla de Helena Matute (@HelenaMatute) se presenta cómo la psicología muestra que si seguimos los modelos de aprendizaje que conocemos, y damos esa libertad y esa flexibilidad que tienen los humanos para aprender tendremos robots con sesgos cognitivos como los que tenemos nosotros. Es decir, podríamos encontrarnos a robots labradores bailando la danza de la lluvia para regar sus terrenos. 😉 Algo que, al menos yo, no conocía y que me parece alucinante.

Pero también está la vertiente de estudiar la respuesta que tenemos los humanos frente al uso de robots, cuando estos presentan ciertas cualidades en cuanto a su personalidad, comportamiento, etc. Podemos programar los robots para que en la interacción con humanos muestren cierta personalidad, sean amables, o bruscos, reconozcan nuestro tono de voz, y en función de esto respondan de una manera u otra. Algo que podría ser muy útil en robots asistenciales, que cuiden de personas mayores por ejemplo, para que estos se sientan más cómodos y menos intimidados por la presencia de ese artilugio en su casa.

El siguiente vídeo es una charla de Helena Matute en la que presenta todos estos conceptos y que la verdad te aconsejo que veas, es más, te aconsejo que veas hasta el pequeño coloquio al final de la charla donde se encuentra el motivo que me lleva a escribir este post. Si ya sé, que tendría que haber ido al grano, pero es que me he liado…

En la charla Helena Matute plantea el hecho de que sería interesante que la humanidad empezase a plantearse el hecho de cómo y en que grado queremos que los robots sean o tengan apariencia y comportamientos humanos. Ya que estos comportamientos nos podrían llevar a ciertos problemas éticos o incluso a problemas de interacción con ellos, ya que cómo se muestra en el minuto 57:30 vemos cómo nos costaría apagar a un robot que nos está suplicando que no le apaguemos, que se portará bien y no nos molestará. Ya me imagino yo una Roomba con ojitos que nos diga eso y nos pasamos toda la noche con la aspiradora enchufada.

Pero el caso es que como bien dice Helena lo de los replicantes de Blade Runner están muy lejos, pero mucho, que podamos discutir hacia donde ir no significa que estemos cerca ni mucho menos, es más, solamente tienes que pensar en ¿donde tienen las baterías los replicantes? Un robot humanoide con todos los motores que lleva para realizar expresiones faciales necesita de una buena cantidad de energía, no digamos para alimentar un superordenador tipo Watson. Podemos debatir donde y cómo queremos llegar, pero que todo el mundo sepa que para eso nos falta mucho, pero mucho.

El debate es interesante, y nos puede llevar a mejorar ciertos aspectos que desde el punto de vista ingenieril no se tenían muy en cuenta pero que son importantes, sobre cómo se interacciona con nuestro robot, y cómo hacerlo más fácil, intuitivo, y agradable. Pero los replicantes son hoy por hoy, igual de ciencia ficción que hace 30 años.

Pero en caso de que podamos hacerlo ¿Los haremos esclavos? ¿Quien nos daría derecho a eso? ¿Qué problemas legales aparecerían en caso de que nuestro replicante haga alguna trastada? ¿Les pondremos a todos la voz de Constantino Romero?

Lo dicho, todo muy interesante, pero tenemos mucho tiempo para plantearnos estos problemas así que no nos pongamos nerviosos cómo algunos de los presentes en la charla de Helena Matute que ya veían el fin del mundo con los robots militares, un nuevo génesis bíblico o una conspiración detrás del robot bailarín que da paso a los anuncios en la Sexta. Por eso me asusta las conclusiones que se pueden sacar después de leer artículos cómo este: Él, humano. Que está muy bien escrito y presenta las mismas cuestiones que presenta Helena Matute, pero me gustaría saber que concluyen algunos al leerlo, o al mal leerlo, ya que si te quedas con las frases destacadas te puede parecer que la singularidad se producirá este mismo verano, bueno en verano no que los investigadores están de vacaciones, el invierno que viene.

¿Nos seguimos leyendo?

@guardiolajavi

Más debate:

Más debate que se originó a raíz de esta interesantísima charla de Helena Matute puedes encontrarlo en la entrada “Cognición, inteligencia artificial y el apocalipsis” de @gazkune.