-->

Qué ocurre cuando le das un péndulo a una máquina

Hoy os dejo la charla que tue el honor de dar en la sesión de Naukas Bilbao 2016, y de paso agradecer a la organización y al público el apoyo y facilidades que nos dan a los ponentes. 

Mi charla se titulaba ¿Qué ocurre cuando le das un péndulo a una máquina? e intenté tocar muy superficialmente las implicaciones sociales y legales que puede tener la entrada masiva de robots en nuestras vidas. Aquí os dejo el link y la charla.




Y recordad que esta semana, Naukas sigue "de gira",  y hace escala en Donostia, donde participará en el Passion For Knowledge que organiza el Donostia International Physics Center y que reúne a varios premios Nobel y grandes científicos en varias charlas.

Aquí os dejo el programa.


La Inteligencia Artificial y el Infome de los Cien Años

Algunas de las mayores empresas tecnológicas del mundo (Amazon, Facebook, Amazon, IBM y Alphabet) están intentando predecir y ponerse de acuerdo en el futuro de la Inteligencia Artificial (IA). Concretamente, sus reflexiones quedaron reflejadas en el Informe de los Cien Años para el período de 2015 (es un proyecto comenzado en octubre de 2014) que auspicia la universidad de Stanford, y en el que intervienen esos gigantes empresariales. 

En él, se analiza la penetración de la Inteligencia Artificial (IA) en la sociedad, ciencia y en la tecnología.y se realizan una serie de reflexiones y recomendaciones sobre la regulación y las políticas públicas a llevar a cabo en la IA de cara a 2030. El seguimiento de estas sugerencias en teoría permitiría avanzar en otros campos en los que la IA influye, y que se implemente de una manera justa, ética y moral. En este estudio no sólo participan expertos en tecnología, sino también en derecho, economía o política. El Gobierno de EEUU ya solicitó formalmente en junio de este año información sobre las implicaciones de la tecnología inteligente.

En este post mencionaré los puntos que más me han llamado la atención del informe, a modo de resumen. El informe completo podéis descargarlo de esta página.


INTRODUCCIÓN
- La primera frase del informe (p. 6) es que las predicciones apocalípticas de las películas y novelas sobre la IA son ficticias. Actualmente, esta ciencia ya tiene su influencia y está mejorando nuestras vidas en términos de productividad, sanidad y seguridad.

Conviene poner el foco en el abuso de la IA. Algunos de los campos más prometedores que mejorará próximamente son el transporte seguro, la educación infantil y en la autosuficiencia de las personas.

Una de las claves del éxito consistirá en la personalización de las máquinas a cada persona, lo cual se logrará cuando se distribuyan aún más.


POLÍTICA Y REGULACIÓN
- La robótica y la IA ya está sustituyendo a los humanos en los puestos de trabajo. Por lo tanto, la sociedad está en un momento crucial para que esta sustitución y transición nos lleve a una calidad de vida mejor, una sociedad más democrática, igualitaria y transparente (p. 6).

- Uno de los factores que más impulsa la IA es la disponibilidad de bases de datos masivas, lo cual a su vez también plantea el eterno problema de la escalabilidad de la IA (p. 8).

- Las políticas públicas deben estar dirigidas a facilitar la adaptación de la IA en la sociedad, fortalecer sus beneficios y mitigar los inevitables errores. Debería promocionarse el debate sobre cómo va a extenderse esta disciplina en la sociedad, en términos de privacidad y beneficios equitativos (p. 10).


- Actualmente en Estados Unidos hay 16 agencias gobiernan sectores de la economía y están relacionadas con la IA. Algunos de los conceptos a aclarar cuanto antes son: "¿quién es responsable en un accidente de coche autónomo o cuando falla un dispositivo médico inteligente?" "¿Cómo puede la IA ayudar a prevenir el fraude fiscal o la discriminación racial? "¿Cómo se protegen las habilidades de los empleados que claramente pueden ser reemplazados por máquinas?" (p.10)


DEFINICIÓN DE IA
La IA es la actividad dedicada a hacer las máquinas inteligentes, y la inteligencia es la capacidad que permite a un agente funcionar de acuerdo a su entorno y a su posible evolución (p. 12)


TENDENCIAS DE LA IA en INVESTIGACIÓN
Esta parte del informe es bastante extensa (p. 13 a 42), en la que el informe estudia dos aspectos:

- en primer lugar, define brevemente las distintas ramas y técnicas de la IA que principalmente seguiremos desarrollando (deep learning, navegación robótica, aprendizaje por refuerzo, etc). A mí particularmente me ha llamado la atención la afirmación de que el problema de la navegación robótica se considera "ya resuelto", y que la investigación tiene que dirigirse hacia la interacción con el entorno y la percepción automática.

- en segundo lugar, predice cómo afectará la inteligencia a distintos sectores de nuestra sociedad, tales como educación, sanidad, transporte o seguridad. No voy a entrar en detalles al respecto, ya que quiero centrar el post en las implicaciones y necesidad de regulación. Si queréis un buen libro que explica muy bien estos retos y previsiones en distintos sectores de la economía, os recomiendo el libro El Auge de los Robots.


RECOMENDACIONES FINALES PARA LA REGULACIÓN DE LA IA

 - Definir un plan para que expertos de distintos campos asesoren a los gobiernos de distintos niveles en la aplicación de la IA en la sociedad, y los beneficios que puede conllevar.

- Eliminar las barreras e impedimentos actuales para investigar la equidad, seguridad, privacidad e impacto social de los sistemas inteligentes.

- Aumentar el gasto público y privado en los estudios interdisciplinarios de los impactos sociales de la IA.



Estas conclusiones coinciden mucho con las que el Instituto de Investigación de Aprendizaje Máquina de EEUU redactó en julio, y se puede leer también aquí




Fuente

Naukas Bilbao 2016, la cita con la divulgación científica

Con el fin del verano, vuelve como un año más la gran cita de píldoras científicas: Naukas Bilbao. Este año se celebrará el 16 y 17 de septiembre, así que id haciendo hueco en vuestras agendas. El programa provisional de charlas podéis encontrarlo aquí:


Para quien no haya oído hablar de este evento, dos ideas: consiste en que los divulgadores de ciencia (principalmente participantes en la plataforma Naukas) subimos al escenario a contar ideas científicas, pero en no más de 10 minutos. Las charlas son de los temas más variados que os podáis hacer a la idea: biología, física, ingeniería, matemáticas, química, astronomía, etc.

Este año además, contaremos con la participación de Pedro Duque, el astronauta español, durante el viernes por la mañana. Además, también se realizarán sesiones de Naukas Kids para los más peques, junto a talleres y otras actividades que la organización irá desgranando en la cuenta @Naukas_com.

A un servidor le toca sus 10 minutos de gloria el viernes por la tarde: ¿Qué pasa cuando le das un péndulo a una máquina?

Habrá streaming del evento. ¡Estáis todos invitados!

¿Se puede predecir el tiempo del ganador de 100m lisos en las Olimpiadas de Río?

Ya hay varios casas de apuesta en Internet que hacen sus pronósticos sobre quién será el ganador de los 100m. A día de hoy, por ejemplo en http://www.paddypower.com,




Y en un gráfico quedaría así:

En este punto, lo que tenemos es una serie de datos. Ahora, de lo que se trata es de intentar predecir el tiempo del Oro en la final de 2016. Tenemos una serie de datos temporales, y queremos predecir el nuevo punto. Para ello, hay una información muy valiosa, y es que la tendencia de los tiempos es claramente bajista.

La primera opción consistiría en obtener una línea que capture el comportamiento de los números de la manera más fiel posible. A esto se le llama línea de regresión, y se puede hacer con el método de mínimos cuadrados.



Lo cual corresponde a una recta de la siguiente forma:
En la ecuación anterior, x representa al año e y al tiempo. Por lo tanto, si hacemos cálculos, el tiempo en x=2016 sería de y=9,64s.

El método de los mínimos cuadrados persigue que en todos los puntos, la diferencia cuadrática entre el punto real y la recta que se obtenga sea la mínima posible. Sin embargo, esto lo hemos encontrado solo para una ecuación de segundo orden. En principio, cuanto mayor sea el grado de x, más se puede aproximar la curva a los puntos reales de los tiempos. Probemos y veamos en la siguiente imagen:


La línea roja corresponde al polinomio de segundo orden y el verde, al de orden 3. Sus ecuaciones son las siguientes:



Lo cual, para el caso rojo nos da un tiempo de 9,82 segundos en 2016. Y para el verde, 9,19 segundos. No conviene seguir aumentando el orden de la ecuación sin ninguna razón, ya que puede ocurrir el problema de overfit, y que los grados altos empiecen a asemejarse a la curva mucho peor que las ecuaciones de bajo grado.

Resumiendo, tenemos las siguientes opciones:
a) 9,64 seg
b) 9,82 seg
c) 9,19 seg.

¿Con cuál nos quedamos? Pues no necesariamente con ninguno. Me explico: Fijémonos en la primera ecuación, la de primer grado. 

 
Como se puede ver, casi ningún punto coincide con la recta, sino que hay una distancia entre la recta que hemos creado y el punto real. A esto se le llama residuo, y los hay de diferente magnitud a lo largo de todos los años, e incluso varían a estar por encima y debajo de la curva. Por estos residuos, quizás convenga no tratar la predicción de datos de manera determinista, sino considerando que va a haber una incertidumbre en nuestros pronósticos. Es decir, empleando métodos probabilísticos. Y uno de los más interesantes, es el método de Bayes.

Es una simplificación extrema, pero Bayes realiza predicciones según va a haciendo observaciones. De hecho, para realizar la predicción voy a emplear una variante de Bayes: el filtro de Kalman (explicada justo en la entrada anterior), el cual tiene una propiedad de predicción. Su implementación para una dimensión es muy sencilla, y este filtro va adaptándose con los nuevos valores. Sin entrar en muchas explicaciones y siguiendo los pasos del enlace anterior, el tiempo que arroja el filtro de Kalman es de 9,37 segundos.

A modo de resumen de la entrada: se aprecia que hay muchas maneras y basándose en distintos enfoques para realizar predicciones en el tiempo. Todo esto es la base de una disciplina muy en boga: machine learning, o el aprendizaje máquina, el cual sobre todo os sonará por el big data y la inteligencia artificial. 

No hemos ahondado en las muchas maneras más complejas que las presentadas para hacer predicciones, y sería pura casualidad que alguno de los resultados aquí arrojados coincidiera con el Oro Olímpico. Pero tampoco nos hemos metido en pasos previos que sí que se dan en el machine learning: descarte de valores poco representativos, filtrado, comprobación del ajuste de los métodos de predicción, etc.

In memoriam: Rudolf Kalman

El pasado 2 de julio falleció Rudolf Kalman, uno de los científicos cuyos resultados nos afectan directamente en la vida cotidiana. Es una fortuna que los científicos disfruten del prestigio durante su vida.

La mayor contribución de este matemático, ingeniero e inventor húngaro formado en Estados Unidos, es el celebérrimo filtro que lleva su nombre, y que se incorporó en el programa Apollo de la NASA en 1960. ¿De qué sirve este filtro?  No voy a explicarlo con un cohete, sino con un dispositivo mucho más sencillo:

Pensemos que un sensor nos arroja cada intervalo de tiempo una medida de la posición de la máquina, y que se iría llenando el siguiente vector de posiciones:

x = [0  0.1  0.22  0.31  0.42  0.50...];

¿Son estas posiciones las absolutas y las totalmente fiables? NUNCA. Por muy bueno y caro que sea un sensor, nunca será perfecto, y siempre su medida va a tener una incertidumbre. La medida que arroje un sensor en cada instante puede representarse mediante una campana de Gauss. Lo más probable es que la medida del sensor sea en el punto más alto, pero podría darse que estuviera en otro punto.

Y si imaginamos además que hay un sensor que mide la aceleración en los mismos intervalos de tiempo de mi máquina, tampoco puedo considerar que esas aceleraciones sean exactas. Ocurre exactamente lo mismo que con la posición. 

Vaya, ¡qué faena! Resulta que ni la posición ni la aceleración en cada instante de tiempo es fiable. Por lo tanto, en ningún momento parece que pueda asegurar dónde está mi máquina. ¿Llegamos a la Luna de chiripa o qué? 

El filtro de Kalman viene a resolver esas incertidumbres en las medidas de los sensores y fusiona los datos en sencillos pasos los datos hasta tener la posición real de mi máquina. Posiblemente, tras el filtrado de Kalman, la posición de mi aparato no sea el que he puesto en el vector x, sino:

x1= [0  0.11  0.23  0.30   0.40  0.48], por decir algo.

Programar el filtro de Kalman en Matlab o Excel es sencillísimo, tal y como se puede encontrar en numerosas webs, como ésta. Como os podéis imaginar, el filtro de Kalman está muy de moda ahora entre ingenieros que se dedican a la robótica móvil, pero es que esta herramienta se emplea en cualquier serie de datos temporales para predecir con más exactitud.

Hay una variable si el sistema a modelar es no-lineal, que es el filtro de Kalman Extendido, pero de ese no vamos a hablar ahora.

Puede que os interese saber que en todos los partidos de fútbol se emplea el filtro de Kalman para las cámaras del estadio y el seguimiento de objetos móviles. 

A pesar de todo lo dicho, Rudolf Kalman no fue el único que llegó a desarrollar su algoritmo. Tal y como indica la Wikipedia, esto fue una co-invención. Rudolf Kalman no fue el único que pensó sobre este problema, y entre otros estuvieron Gauss, Kolmogorov, Legendre... pero sobre todo, la co-autoría se puede atribuir también a Peter Swerling, quién llegó a una expresión parecida poco antes de manera independiente.


Accidentes con los coches autónomos: era cuestión de tiempo

Después de un periodo de trabajo bastante intenso en los últimos meses, intentaré volver a retomar una actividad más frecuente en el blog.

En esta ocasión, toca hablar sobre coches autónomos: el pasado 29 de junio, el coche Tesla Model S sufrió un fatal accidente en el que falleció su ocupante, Joshua Brown. El accidente surgió con el famoso autopilot de la marca, por lo que se convierte en la primera víctima mortal con este tipo de vehículos. Curiosamente, el experto en robótica, Alan Winfield, el 31 de marzo de este año publicó en su blog que la primera víctima era cuestión de tiempo.

El accidente está explicado en multitud de webs, pero creo que la siguiente imagen del NYTimes es bastante explicativa: 


Tal y como se puede ver, un camión de grandes dimensiones se cruzó en la trayectoria del coche, y éste no frenó. 

Es crítico conocer las razones que provocaron el fallo del autopilot. Todo apunta a un fallo de visión artificial, donde no se distinguió bien el color blanco del camión en contraste con el cielo de color claro que había en ese momento. Elon Musk es reconocido por ser crítico con el sistema LIDAR como instrumento para escanear lo que hay alrededor del vehículo y posicionarse (SLAM). El Tesla Model S equipa cámaras (sensor MobilEye concretamente), y probablemente el sistema LIDAR hubiera detectado sin problemas el camión en cuestión. 

El LIDAR es el sistema habitual en otras propuestas de coches autónomos, pero sus mayores problemas son el abusivo consumo de energía (por eso no lo equipa el Mars Rover) y su elevado precio.

Es irónico saber que la víctima realizó un vídeo dos meses antes en el que aseguraba que el sistema autopilot le salvó cuando un camión blanco más pequeño se le cruzó en su camino (a continuación se puede ver la grabación):


Pero como siempre, el diablo está en los detalles, y desgracias como ésta pesan tanto en la penetración de estos coches en la sociedad, como la propia tecnología. Y ahí van los detalles que marcarán las decisiones legales y de responsabilidad en este suceso:

1) El sistema auto-pilot de Tesla no es estrictamente un sistema autónomo. No está conectado al sistema de navegación, y simplemente se trata de un sistema supervisado de aprendizaje automático que no tiene el control último del coche. Más bien es un sistema que se guía por las líneas de las carreteras y las distancias a otros vehículos. Pero el conductor puede tomar el control total del coche cuando lo considere.

2) Será muy importante la decisión de cómo se van a gestionar los seguros y qué responsabilidad se carga sobre cada uno de los actores del accidente (conductor, fabricante Tesla y camión). Para mí Tesla sí que tiene parte de culpa, ya que su sistema de visión falló. Y tal y como dice este artículo, los pilotos de aviones vuelan con la opción de modo automático, pero están entrenados para actuar en caso de cualquier incidencia. No es el caso de los conductores habituales.

Tesla presume de tener una especie de caja negra de accidentes y dilucidar sin duda alguna de quién es la culpa en cualquier accidente, tal y como lo argumentó en otro tipo de accidentes. Sin embargo, también será importante leer detenidamente el contrato que firma cualquier comprador de Tesla.

3) En mi opinión, la mayor dificultad de la penetración y normalización de coches autónomos en nuestras vidas no será problema de la tecnología, ni de las carreteras, ni del precio. Serán los tests. Hay que hacer muchos muchos tests. Los vehículos autónomos no fallan como un humano. Han demostrado que son capaces de reaccionar a señales mucho más rápido que nosotros, a no fatigarse, o a mantener siempre la atención. Pero todavía no sabemos cómo gestionan toda la información que reciben y qué decisiones toman en consecuencia.

Estamos en un momento científico tecnológico apasionante.




Fuente original (blog de Tesla): https://www.teslamotors.com/blog/tragic-loss

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Web Hosting