-->

Evidencias del impacto de la Inteligencia Artificial en la sociedad

El pasado julio, el Parlamento Británico convocó a cualquier persona a aportar su opinión sobre evidencias del impacto de la inteligencia artificial en la sociedad, y sus directrices de regulación. Esta información era recibida por el comité científico sobre IA de dicha institución para su lectura y análisis. Aquí podéis encontrar la convocatoria correspondiente.

Las public calls de este tipo son habituales, y pueden ser de distintas disciplinas y aspectos de la sociedad, tal y como se demuestra en la lista de las últimas convocatorias.


Para el caso que nos ocupa, estas son las propuestas aceptadas, y en esta ocasión, la mía también ha sido admitida. Y es su contenido lo que trataré brevemente en este artículo.





Básicamente, enfaticé mi preocupación y necesidad de regulación hacia tres aspectos muy concretos:

1) La caja negra de los algoritmos y el uso de datos para uso discriminatorio.

2) El panóptico digital.

3) Los hackeos sobre sistemas inteligentes.


1) La caja negra de los algoritmos y el uso de datos para uso discriminatorio

Si pensamos en el momento en el que somos candidatos para una oferta de trabajo, está socialmente aceptado que el responsable de esa empresa nos diga que no somos aptos, sin profundizar demasiado en los detalles que le han llevado a esa decisión. O cuando solicitamos un préstamo a un banco, y nos lo deniegan. Recibimos contestaciones del tipo "el equipo de riesgos no lo ha considerado oportuno", sin entrar en detalle de qué es lo que exactamente ha declinado la balanza en nuestra contra. 

No es aceptable este nivel de ambigüedad en los sistemas inteligentes que pasen a formar parte de nuestras vidas. Si fuera un robot el que elige el ganador en el proceso de selección de un puesto de trabajo, es altamente exigible conocer en qué aspectos se ha fijado, y lo mismo si decidiera sobre nuestro préstamo financiero. En el caso de no ser transparente en la política de decisión de estos sistemas, corremos el riesgo como sociedad de ver atropellados nuestros derechos más básicos, y ser rechazados por nuestra orientación sexual, procedencia, trabajo, u otro aspecto. El término blackbox no es una excusa para todo para no revelar el funcionamiento más general de una máquina que toma decisiones.

Si un mismo sistema inteligente dice que no podemos optar a un préstamo en un banco X, ¿cómo sabemos que tampoco nos permitirá obtenerlo en el banco Y?

Además, este tipo de máquinas inteligentes pueden llegar a hacer diagnósticos médicos, recomendar tratamientos o conducir por nosotros, y por lo tanto, una transparencia sobre los criterios que usa es imprescindible.

El secreto industrial lleva existiendo desde hace mucho tiempo entre nosotros, y a pesar de que hay máquinas totalmente integradas en nuestra vida, como aviones y coches, que no revelan totalmente todo el código que emplean (véase, Dieselgate) sí que hay tests en la industria perfectamente estandarizados para comprobar cómo funcionan esas máquinas bajo una gran variedad de situaciones de funcionamiento. Algo así podría ser aplicable y exigible legalmente para sistemas inteligentes que tengan poder sobre nuestra vida. En este caso, estoy pensando que el algoritmo de recomendación de canciones de Spotify no toma este tipo de decisiones transcendentales, por ejemplo.


2) El panóptico digital
Creo que este aspecto es, de los tres que presenté, el menos tratado en la bibliografía y opinión pública. El panóptico es una idea creada por el filósofo Jeremy Bentham al final del siglo XVIII. El concepto intenta explicar cómo se altera el comportamiento de una sociedad o un colectivo cuando se siente observado. Imaginaos que tuvieráis cámaras en vuestra casa. ¿Os comportaríais de la misma manera?

Los sistemas de control de producción en fábricas son bastante recientes. Se encargan de detectar ritmo de producción, piezas defectuosas, tiempos muertos, etc. Actualmente se habla de fábricas inteligentes, donde muchos brazos robóticos y sensores controlan la producción de toda la fábrica. Ya no hace falta un supervisor que vigile si un equipo de trabajadores se emplea a fondo o no. Basta con sensores, y con aumentar el ritmo al que trabajan los robots y distintos automatismos, tal y como se refleja en la recomendable película Tiempos modernos

Me parece que la inteligencia artificial da un gran salto en esta vigilancia, ya que pone a disposición de los responsables una serie de herramientas y tratamiento de datos masivos muy avanzado. Ahora parece mucho más fácil detectar ineficiencias de trabajadores, o quién es el "manazas" que más piezas estropea, o dónde exactamente se pierde ritmo de producción. 

El panóptico de Bentham defendía que este tipo de vigilancia lleva a una especie de alienación de la gente, y es lo que habría que tener en cuenta para la incorporación de la IA a las fábricas. Creo que en lugar de emplear la información del tratamiento de datos para expulsar a los empleados, se puede usar e incentivar una formación más personalizada, y una adaptación de la disciplina de Prevención de Riesgos Laborales a este nuevo marco tecnológico.


3) Los hackeos sobre sistemas inteligentes
Este punto está relacionado con el primero de mi exposición. El aprendizaje máquina adverso (adversarial machine learning) es una rama de la ciberseguridad que estudia la alteración de señales para el engaño de sistemas inteligentes. Estas señales pueden ser imágenes, texto o audio, y la existencia de este fenómeno fue descubierto a finales de 2010. 

Actualmente, se conocen distintas técnicas de manipulación de imágenes que engañan a cámaras o sistemas inteligentes. Por ejemplo, que alguien con unas gafas de sol con lentes coloreadas no sea identificado, o la alteración pequeña de señales de tráfico para que el coche autónomo no reconozca o confunda la indicación de tráfico. Lo preocupante es que muchos de estos cambios visuales no son percibibles por el ojo humano. En este artículo se muestran algunas alteraciones que cambian totalmente la interpretación de las máquinas.


¿Qué os parecen estas amenazas? ¿Añadiríais alguna más?

Mi charla en Naukas17

Y ya van 6 las charlas que he tenido el honor de impartir en Naukas Bilbao. Este año pude estar muy poco tiempo por el evento, y participé en el NaukasPro explicando qué hacemos en el grupo de investigación de la universidad. Mucha robótica e inteligencia artificial.

Muchas gracias a los asistentes, a las opiniones, y os recomiendo encarecidamente que veáis cualquier charla que os llame la atención del resto de Naukers.





Imagen de @xurxomar

Reseña de El ojo desnudo, de Antonio Martínez Ron

Hace tiempo que no dedico una entrada del blog a escribir una reseña de alguna obra que me haya llamado la atención, pero El ojo desnudo, escrito por el ínclito @aberron, lo ha merecido.



Una breve introducción de lo que trata el libro la podéis encontrar en la web de Amazon, y en el blog del propio Antonio

"El ojo desnudo" es el hilo argumental que ha elaborado el autor para contarnos una gran historia científica a partir de los ojos del físico John Dalton, los cuales estaban olvidados por la historia en un sótano. A partir de estos elementos, Antonio nos cuenta la historia del conocimiento de la estructura del ojo humano, el mecanismo por el que vemos, y experimentos muy curiosos que se han llevado a cabo para llegar a las entrañas del conocimiento. Pero es imposible separar este conocimiento, de otras investigaciones que se desarrollaron en paralelo a lo largo de la historia, entre los que destacan los intrumentos de visión astronómica y conceptos básicos de ondas. 

Cuando terminas el libro, te quedas con la sensación de haber leído miles de ideas, y recuerdas bastantes de ellas de manera agradable. De todas formas, el libro no se compone solo de descripciones, sino principalmente de narraciones que ayudan a implicar al lector en la historia. La redacción es muy cuidada y amena, y el libro se lee bastante rápido. 

En definitiva: un libro muy recomendable para cualquier amante de la ciencia, que no requiere conocimientos previos para ser disfrutado.



¿Qué significa que no entendemos cómo funciona la inteligencia artificial?

Esta semana colaboré en la web de divulgación científica Mapping Ignorance con el tema que indico en el título. 

Hay cada vez más noticias de investigadores prestigiosos que afirman que la inteligencia artificial funciona, pero no entienden el proceso que se sigue internamente en el algoritmo para llegar a la solución. Algunas noticias son 1, 2, 3, 4, 5 y 6

En el artículo original, aunque esté en la lengua de Shakespeare, intento explicar lo más claramente posible qué significa eso. Se entiende enseguida. Pero eso no lleva a que estemos desarrollando sin saberlo un Terminator, ¡no os preocupéis!

Sin más dilación, aquí tenéis el artículo. ¡Buen domingo!




Un poco de estadística y fútbol

A las puertas del comienzo de una nueva Liga de Fútbol, aquí va un pequeño artículo sobre estadísticas y alguna curiosidad que quizás os hayáis planteado: ¿cómo se representan las estadísticas de los jugadores durante la temporada (por ejemplo, pases con éxito o tiros a puerta)?

Tomemos como ejemplo los tiros a puerta. Según esta página web, el total de tiros de Messi a lo largo de la pasada temporada fue de 131, de los cuales 77 fueron tiros a puerta. Es decir, un 58'78%. Ahora bien, pensemos en el comienzo de la Liga 2017/18. ¿Qué ocurre cuando el jugador hace su primer tiro? ¿Si va a puerta, tendría una efectividad de 100%? ¿Y si falla, del 0%? ¿No es esto un poco drástico? ¿Significa esto que Messi va a quedarse toda la temporada probablemente en un valor de alrededor de 0 ó 100% de efectividad de tiros a puerta? 

¡Claro que no! Pero eso es porque partimos de información previa, y es el conocimiento de las estadísticas de Messi más o menos al finalizar las temporadas, y eso en estadística tiene mucho sentido y en inglés se le denomina prior. Vayamos paso a paso.

Para los tiros a puerta viene muy bien una herramienta que ya vimos en un post anterior, y es la distribución binomial Beta, que oscila entre (0, 1) y está determinada por los parámetros α y β.

Para el caso de los tiros a puerta habituales de un jugador, vamos a imaginar que al final de la temporada, la mayoría de jugadores tienen una efectividad del 27% respecto al total de tiros. Esto equivale a una α =  81 y  β =219.


Ahora mismo, esa distribución sería la siguiente:



En principio, la probabilidad inicial de cualquier jugador (incluído Messi) de acertar tiros a puerta es este, obtenido a partir de los datos de todos los jugadores a lo largo de la temporada pasada. Ahora, ¿qué ocurre cuando Messi realiza el primer tiro de la temporada en el primer partido de Liga? Actualizamos la función binomial Beta de la siguiente manera:

Beta(α + aciertos, β + fallos).

Es decir, si el tiro iba a puerta, es un caso de éxito, y tendríamos la nueva Beta (81 + 1, 219), y esa función dibujada sería la siguiente:

Los cambios son apenas perceptibles entre una gráfica y otra, pero los ha habido. Es normal que ocurra esto, ya que significa que un tiro no altera apenas las estadísticas globales de un jugador a lo largo de la temporada.

Pero según se van acumulando los tiros, se nota aún más. Pongamos que el jugador hace 300 tiros en una temporada, de los cuales a puerta van 100. Tendríamos Beta (81+100, 219+200):


Ahora sí que se notan cambios aparentes. Y además, la distribución se ha estrechado, debido sobretodo a que la probabilidad de acierto de Messi a lo largo de la temporada ha sido bastante baja.




Nota
Los valores iniciales de α = 81 y β = 219 se obtienen a partir de la siguiente fórmula:




El artículo está basado en este hilo de Stackexchange.



https://stats.stackexchange.com/questions/47771/what-is-the-intuition-behind-beta-distribution

Razones para no perderse Naukas Bilbao 2017

- Naukas Bilbao es un acontecimiento referente de divulgación científica, en el que se combina ciencia + humor en charlas de aproximadamente 10 minutos.

- Este año será más grande que nunca: el evento se celebrará en el Palacio Euskalduna de Bilbao. Un escenario espectacular.

- Ya nadie se quedará sin sitio ni poder entrar. ¡El nuevo aforo es de 2.000 personas! Ni tampoco tendréis que hacer las largas colas que se han visto en las ediciones pasadas.

- Cada vez se van incorporando a la familia Naukas más ponentes, cada uno con un tema distinto y que seguro que os atraerá (biología, física, astronomía, matemáticas, derecho, informática, antropología, química, ingeniería...).

- Este año volvemos a contar con Naukas Kids: ciencia y talleres para los más pequeños.

- Volverán a haber sorpresas, científicos de prestigio internacional y entrevistas interesantes.

- Ya vamos por la séptima edición. ¡Cada vez el evento sale mejor! 

- El público que asiste, ¡normalmente otro año repite!

- La asistencia al evento es totalmente gratuita.
 

Recordad, entre el 14 y el 17 de septiembre tenéis un evento en la agenda
Aquí podéis consultar el programa provisional.









Colaboración en Next_Ciencia: Musk vs Zuckerberg: ¿quién teme al robot feroz?

Esta semana colaboro con @Next_Ciencia, la sección científica de Vozpópuli a cargo del gran @aberron. Por cierto, si no le seguís ya: ¡hacedlo, insensatos!
El enlace original es este, y a continuación os dejo una copia del artículo. Gracias a los lectores, ¡y buen domingo! 

-------------------------------------------------------------------------------------------------
En los últimos días dos grandes gurús de las nuevas tecnologías han intercambiado algunos zarpazos a propósito de sus diferentes visiones sobre la Inteligencia Artificial (IA). Elon Musk, creador de PayPal o Tesla Motors, se ha manifestado partidario de regular la IA y está convencido de que puede ser la mayor amenaza para la humanidad, mientras que el creador de Facebook, Mark Zuckerberg, cree que se trata de una actitud irresponsable y que las predicciones apocalípticas de Musk lo único que consiguen es frenar el desarrollo y la profundización en esta disciplina. Como respuesta, Musk aseguró en Twitter que la comprensión de Zuckerberg de la IA es “limitada”.
No es la primera vez que Elon Musk declara públicamente su preocupación por la IA. Ya en 2015 más de 1000 investigadores prestigiosos firmaron una carta abierta pidiendo a la ONU que prohibiese las armas militares basadas en IA. Y en cierto modo sí, es verdad, la IA está clasificada como uno de los riesgos a los que se enfrenta la población mundial. Concretamente, por las instituciones Global Challenges Foundation y World Economic Forum, y se equipara a esta tecnología a la llegada de asteroides o a la amenaza nuclear.

Sin embargo, como apunta el experto en robótica Rodney Brooks, es posible que sea el propio Musk el que tenga una visión limitada y distorsionada de la Inteligencia Artificial y el que está confundiendo los hechos. Veamos por qué.

En primer lugar, conviene aclarar el miedo de los investigadores que firmaron la famosa carta no se refiere a que una hipotética carrera militar culmine con la creación de una especie de Terminator que se vuelva en contra de la raza humana. A día de hoy, la IA está muy lejos de esos términos de volverse en contra de sus creadores y hay amenazas más apremiantes para el planeta como la guerra nuclear o el cambio climático. ¿Entonces a qué tienen miedo los firmantes de la declaración? Lo que estrictamente solicitaban en la carta abierta era que se asegure que los sistemas (robots o software) dotados con inteligencia, hagan lo que está estrictamente programado para hacer y no otra cosa inesperada. Para solucionar esto, se podría imponer que los aparatos dotados con IA tengan un código abierto, o que sean revisados por una entidad independiente u otras posibilidades. Esto no es tan fácil ni siquiera hoy en día, y si no, invito a los lectores a recordar el famoso Dieselgate de Volkswagen.

Para entenderlo, pensemos en algo más realista que en el manido Terminator: pongamos que popularizamos exoesqueletos con inteligencia artificial para ayudar a las personas mayores en sus tareas físicas diarias. Si la persona está bajando por las escaleras, y por alguna razón, requiere a los motores del exoesqueleto que desarrollen un par de fuerza que los podría quemar, ¿no nos tendríamos que asegurar que ese aparato decida siempre ejercer esa potencia y priorizar a la persona? Decirlo es fácil, pero implementarlo y certificarlo no lo es tanto.
Es decir, antes que imaginarnos historias de ciencia ficción, hay que atender a detalles más concretos y realistas. Además, como señala Brooks, las personas que tienen esta visión amenazadora de la IA suelen ser gente que no trabaja en IA, y se refiere explícitamente a las advertencias hechas por Stephen Hawking o Martin Rees. “Los que trabajamos en Inteligencia Artificial sabemos lo difícil que es conseguir que algo realmente funcione a nivel de producto”. Y aquí es donde llama la atención que Elon Musk tire piedras sobre su propio tejado, ya que él mismo está implantando Inteligencia Artificial en sus vehículos, y hace declaraciones como los que no confían en sus coches autónomos “están matando a gente” o asegura que estos modelos son dos veces más seguros. También su empresa Paypal se vale de inteligencia artificial para detectar el fraude, de modo que sembrar la duda sobre las posibilidades de esta tecnología es terreno pantanoso para él mismo.

Pero no todo van a ser palos para él. El fundador de Facebook también se equivocó en enero de 2016 afirmando que no hace falta temer a la IA. Y ese extremo tampoco es cierto. Una persona que sabe muy bien de qué va la cosa es Demis Hassabis, cofundador de DeepMind: a día de hoy, una de las empresas que más está avanzando en la IA. De hecho, sus declaraciones pueden responder tanto a Zuckerberg como Musk, ya que afirma que “estamos aún a décadas o siglos de conseguir una inteligencia artificial parecida a la humana”, “ahora mismo estamos practicando con pequeños juegos”, “pero eso no significa que no haya razones para no ser cautos”. Además, es muy optimista frente al futuro de esta tecnología, ya que está ayudando a optimizar procesos de empresas, a incrementar beneficios, a hacer mejores diagnósticos médicos, detectar fraudes y reducir los accidentes de tráfico.
Uno de los errores que puede estar cometiendo Musk y los apocalípticos es creer que tenemos un control mayor de la IA del que realmente tenemos. En este sentido Brooks recuerda que los creadores del admirado AlphaGo, el potente Google DeepMind que venció al campeón de Go, admitieron recientemente que todo podría haber salido espantosamente mal en su desafío. Y tampoco debemos perder de vista que la IA no es un ente autónomo que ha cobrado conciencia como Skynet, sino una combinación de tecnologías que los humanos están probando y que dependen fundamentalmente de nosotros.

Por el momento, algunos de los robots más avanzados siguen siendo copias bastante precarias de los autómatas que hemos visto en las películas de ciencia ficción y están a años luz de los replicantes. Observando la dificultad que aun existe para definir tareas tan sencillas como correr o parar un penalti no parece que máquinas estén muy preparadas aún para conquistar el mundo con sus movimientos.



El mejor resumen del estado de la s cosas se recoge en la primera frase del Informe de los 100 años de la IA elaborado por prestigiosos investigadores en este ámbito:

El retrato terrorífico y futurist de la Inteligencia Artificial que domina las películas y las novelas, y moldea la imaginación popular, es ficticio. En realidad la IA está cambiando ya nuestras vidas diarias, casi siempre de maneras en que mejoran la salud humana, nuestra salud y la productividad.

En este informe se realizan recomendaciones sobre la regulación de esta disciplina de cara a 2030. Y esto tiene que quedar claro: conviene estudiar ahora las medidas a adoptar, antes de que los sistemas inteligentes se hayan masificado y su buen funcionamiento, uso de datos, estandarización, etc., estén descontrolados. Por descontado que algo que se puede volver tan habitual en nuestras vidas, hay que regularlo, y ya hay iniciativas, como la que inició la Casa Blanca en 2016 o la Unión Europea

Por lo tanto, y en resumen, es conveniente quedarse con las siguientes ideas:

1) La Inteligencia Artificial está aún muy lejos de los niveles de Hollywood

2) Hay que ser cautos de cara a su desarrollo y regular los sistemas inteligente

3) Ya hay muchos dispositivos con IA en nuestras vidas y están ayudando a resolver problemas.

Así que tranquilo, Elon Musk: no eres el único que tiene interés en regular la IA. Y, por supuesto, recuerda que los robots no son el nuevo lobo feroz.




Fuente imagen

Cuando la inteligencia artificial hace cosas inesperadas

Quizás los lectores más fieles me hayan oído decir que la inteligencia artificial puede ser peligrosa y tener consecuencias inesperadas. Desde luego, en mi opinión estamos a años luz de escenarios como el de Yo, Robot, o películas de Hollywood similares. 

Actualmente, en gran medida, los algoritmos de inteligencia artificial son como "cajas negras". No sabemos cómo funcionan exactamente, y hoy traigo un ejemplo un tanto simplón que plasma esto bastante bien.

Lo recogió por primera vez este artículo científico de 1992, aunque no fue hasta 2008 cuando Elezier Yudkowsky lo puso de moda en su artículo sobre los riesgos globales de la IA. La historia es la siguiente:

En los 80, los militares estadounidenses intentaban proteger a sus tanques de la tecnología informática de la época, de manera que no los detectasen tan fácilmente y fueran más difíciles de atacar. Para ello, tomaron 100 fotos de tanques escondidos tras los árboles y otras 100 de árboles sin tanques.

Posteriormente, diseñaron una red neuronal en la que entrenaron la detección de tanques con 50 fotos de cada caso. Es decir, usaron 50 fotos con tanques para que "el sistema" aprendiera cuándo los había, y otras 50 fotos sin tanques para que el resultado fuera que no se detectan tanques.

Este entrenamiento sirve para afinar la red neuronal. Una vez afinada (según ellos), comprobaron que con las 100 fotos que faltaban, el sistema funcionaba perfectamente en el 100% de los casos. Es decir, parecía que los militares habían apredido a discernir cuándo sí y cuándo no había tanques entre los árboles. ¡Vaya adelanto!

Sin embargo, otro día probaron de nuevo este detector, se llevaron una gran desilusión cuando vieron que fallaba más que una escopeta de feria en la nueva detección. Nadie entendía nada. 

Tuvieron que pasar muchas horas para que alguien se diera cuenta que el entrenamiento (cómo habían enseñado al detector), lo habían hecho con 200 fotos con el cielo completamente nuboso. Y en el día de las nuevas pruebas, como estaba despejado, no reconocía a los tanques.

Gracioso, ¿verdad? Ahora, cualquier investigador sabe que 100 fotos para entrenar una red neuronal son muy pocas, pero había que saberlo también en los 80. A pesar de que la potencia de computación haya aumentado, todavía nadie nos libra de que un sistema inteligente arroje resultados inesperados para el diseñador, como éste. Y ese es uno de los peligros de la IA de los que habitualmente me quejamos yo y @HelenaMatute.

De hecho, una demostración de resultado inesperado muy sonado ocurrió en 2012, cuando HP lanzó un sistema de reconocimiento facial un tanto especial. Aquí está el vídeo.




Actualización (19 de julio 2017)
A través de Twitter, @hhmmss me ha chivado que Volvo tenía cierto problema con sus coches y los canguros. Y este fallo es de 2017. Como veis, siguen sucediendo problemas de ajuste de sistemas inteligentes.

Un año después de acabar la tesis, ¿qué?

No acostumbro a hablar mucho en el blog de mis temas profesionales. La gente que me sigue de cerca conoce que en junio 2016 obtuve mi título de doctorado en Ciencias de la Computación e Inteligencia Artificial gracias a una investigación con el título Quadrotor team modeling and control for DLO transportation. Y sigo en el mismo puesto de trabajo, como docente e investigador universitario. Pero tras este año y un poquito más me ha parecido importante ver qué he hecho tras la tesis, o intentar responderme a "¿para qué ha servido?".

La tesis es un proceso imprescindible en la carrera investigadora, ya que te formas en una manera de investigar, en extrer resultados a partir de muchas pruebas, a pensar, a plantear hipótesis, a diseñar experimentos, etc. No soy partidario de que este período se haga muy largo, ya que tras haber pasado unos años en estas prácticas, obtener la tesis se puede convertir en un trámite a superar para continuar investigando tras ella. 

En este año, me he dedicado a seguir publicando resultados de investigación que durante mi período de doctorado no me dio tiempo a publicar, pero también soy de los que piensan que no puedes hacer lo mismo durante tu período de formación que tras él. ¿Para qué te has formado 4 o más años entonces? ¿Para seguir haciendo lo mismo? No me quiero resignar a publicar artículos solamente.

Y por esa razón, mi sensación este año es que gracias a mi grupo de investigación, me he tenido que volver un poco más gestor de la investigación, y además de plantear experimentos e intentar probar hipótesis, tienes que pensar en la mejor forma de dar a conocer resultados, estar al loro de las convocatorias de proyectos públicos para ver por dónde van los tiros, leer mucho sobre los trabajos de otros grupos de investigación para ver qué hacen en los temas que tocas tú...aunque parezca mentira, toca salir mucho más del despacho para plantear reuniones, conocer la opinión de gente que trabaja en los mismos temas que tú, dar a conocer tu trabajo para ver si puede servir de utilidad a una empresa, etc.

En cierta manera, es como dirigir una pequeña empresa, en la que el producto eres tú mismo. El nuevo doctor normalmente tiene que ver cuáles son las líneas de investigación más atractivas e interesantes que pueden hacerle establecer mejores contactos, obtener mejores resultados y ser capaz de ayudar a que otros investigadores obtengan su propia tesis.

No es un camino más fácil que otras alternativas profesionales y no son pocas las veces que pienso sobre mi futuro y si estoy haciendo lo correcto en el lugar correcto, pero de entrada al final de este curso 2016-17 puedo ver que mi actividad ha cambiado respecto a otros años anteriores. Agradezco a las distintas personas que lean estas líneas y me hayan ayudado por el camino.

El mundo de la robótica y de la inteligencia artificial no solo se puede abrazar desde el mundo académico y universitario, y para mí es un tema apasionante. Si hay alguien interesado o con alguna consulta, puede planteármela a mi dirección del blog, ideasecundaria@yahoo.es.

Nos vemos en el camino.


¿Cómo sabéis de qué producto de Amazon fiaros?

En muchas ocasiones, las estrellas que tienen los productos de Amazon es uno de nuestros criterios para elegir entre uno u otro, sobre todo sin son muy parecidos en sus prestaciones o características. Además, este gigante de Internet permite la siguiente situación que se ve en la foto:



La foto, extraída de este blog, tiene los productos ordenados por valoración de clientes. Probablemente en ese caso la mayoría de vosotros optaría por el artículo de la derecha, ya que parece que el consenso es mayor. En el caso de la tostadora, puede que esa información sea aislada y de alguien poco parecido a nosotros. Quizás sea alguien tan parcial como el vendedor, que intenta colarnos las bondades del aparato.

Pero pongamos un caso un poco más difícil: si pensamos en situaciones binarias con solo dos opciones para asignar (me gusta / no me gusta), ¿qué producto escogemos entre las siguientes alternativas?
A) 400 opiniones positivas y 100 negativas
B) 9 opiniones positivas y 1 negativa

En estas ocasiones, es de gran ayuda la distribución beta de las matemáticas. Esta función tiene dos parámetros, α y β, y se emplea para modelar eventos que se definen por valores mínimos y máximos.

 El lenguaje de programación R es muy apropiado para jugar con funciones estadísticas, y si intentamos hallar el intervalo de confianza del 95% para ambos productos, tendremos:

Es decir, la verdadera calidad del producto A oscila entre un 76% y 83%, mientras que la del B lo hace entre un 58% y 97%, con una probabilidad del 95% de ocasiones. De hecho, si dibujamos las funciones, veríamos que las funciones beta del producto A es muy estrecha y alta, mientras que la del B es todo lo contrario, tal y como se ve en la última imagen.




Fuente: Joy of data (con códigos)

Sobre el negocio de reparto con robots

La semana pasada tuve la ocasión de publicar un artículo en el blog Robohub, sitio web especialista en robotica para investigadores, aficionados y emprendedores. Mi aportación consistió en recalcar el prometedor negocio del reparto de paquetería que los robots aspiran a captar, sobre todo los aparatos no voladores. 

Pero también quise hablar de las posibilidades que abre el transporte colaborativo de paquetes entre robots voladores. ¿Qué ocurre si la caja a transportar es demasiado grande como para ser transportada por un único drone? ¿O podrían desplegar una línea de alta tensión entre un equipo de ellos?

Podéis encontrar el artículo aquí, en la lengua de Shakespeare. ¡Buen domingo!


El valle inquietante de la robótica

Cada vez que visito algún centro comercial, veo más expositores de pequeños robots. Son pequeños drones, o robots sociales que imitan a alguna mascota, o algún pequeño dispositivo para aprender a programar. No tengo claro si estarán teniendo mucho éxito o no. La mayoría de estos productos están dirigidos al público infantil, y son un sector particularmente exigente.

Veamos un ejemplo que está teniendo mucho éxito. Se trata de Cozmo:



Este robot en funcionamiento se puede ver en este vídeo. A mí me parece algo alucinante por el tipo de tecnología que tiene, lo bien logrado que está y el precio asequible al que se puede conseguir.  Aquí tenéis más juguetes tecnológicos "con carita graciosa".

De cara a la futura e inevitable masificación de robots en nuestras vidas hay que tener muy en cuenta estos aspectos. Los robots tienen que parecer que son amables con nostros. Por ejemplo, es muy importante para un robot de asistencia geriátrico que muestre empatía. De lo contrario, el paciente muy probablemente lo rechazará. En palabras de la psicóloga cognitiva Helena Matute, las máquinas están domesticando a los humanos.

Aunque no seamos muy conscientes, la caracterización de la vida artificial se ha empleado desde hace mucho tiempo buscando distintos efectos. Es decir, a ninguno de nosotros nos daban miedo los célebres guiñoles de Canal+, pero sí que nos daba miedo los muñecos diabólicos de las películas. A la delgada línea que divide la buena y confiada relación entre máquinas y humanos, y la repulsa por miedo se le denomina uncanny valley, o valle inquietante. La idea fue por primera vez impulsada por el investigador japonés Masahiro Mori en 1970, y su tesis se basa en la anti-intuitiva relación de qué consideran los humanos más semejante a ellos. Se puede resumir en el siguiente gráfico:



En mi opinión, una de las características más importantes para la interacción humano-máquina no sea la estética, sino la velocidad de movimientos, la cual será distinta según el contexto. No sería lo mismo el efecto de un robot infantil, como Wall-E, o en un robot geriátrico o industrial. Y será imprescindible tener en cuenta estos factores para que las distintas soluciones tecnológicas entre nosotros se integren correctamente en distintos ámbitos: juguetes, educación, geriatría, sanidad, servicios, etc.

Otro de los robots sociales más exitosos desde hace un tiempo es NAO.



Todavía se está estudiando el por qué del valle inquietante, y los últimos estudios apuntan a la descoordinación entre el comportamiento del robot y su apariencia.




Mas información en los siguientes enlaces: 1, 2, 3 y 4

Controlador PID: tecnología de hace décadas para máquinas de última generación

No es poca la admiración que profeso hacia el protagonista de hoy, el controlador PID, que tanto he llegado a manejar a lo largo de mi formación reciente. Este tipo de controlador es uno de los más abundantes en la industria actual, pero tiene su origen hace más de 100 años. Comenzó a usarse en máquinas bélicas con el ánimo de tener un control automático sobre la estabilidad y maniobravilidad de las naves marítimas y aéreas. 

Para entender de manera simplificada cómo actúa un controlador PID, pensemos en un ascensor: si decidimos subir desde el primer piso hasta el cuarto, normalmente es este tipo de control el que hace que el ascensor se pare en el cuarto, y que no suba hasta el 5º, luego rebote hasta el 3º, y finalmente se detenga en el 4º. Es decir, controla el motor del ascensor en función de la distancia que queda hasta llegar al destino. Esto se consigue mediante una correcta selección de los valores numéricos del controlador PID. Normalmente el ascensor va midiendo en todo momento la diferencia entre la altura actual y la altura destino; lo que se conoce como sistema de realimentación.

La siguiente imagen extraída de la Wiki muestra el comportamiento del PID con distintos valores.



Uno de los problemas más difíciles que ponen a los estudiantes de ingeniería en ingeniería de control es el del péndulo invertido, que consiste en conseguir que un péndulo rígido con la bolita en su parte superior, permanezca vertical, pero solo actuando horizontalmente sobre un carrito. La siguiente imagen muestra este mecanismo:



Los científicos se enfrentaron a este problema en los 60 y 70, y probablemente a mí también me pareció un problema del ámbito puramente académico en su momento, hasta que se empieza a ver por la calle cosas como estas:



Una prueba del gran avance de la tecnología es que hoy en día cualquiera puede construir un sistema de péndulo invertido o doble péndulo invertido con Arduino o Raspberry por 100€. ¿Sirve de algo? Si lo conseguís, ya lo estaréis haciendo mejor que algunos cohetes espaciales:


En los cohetes, la fase inicial consiste en mantener en una dirección predeterminada un cuerpo esbelto a partir de un empuje en su extremo inferior; algo así como el problema del péndulo.

No sólo eso: también última tecnología como los coches autónomos u otros robots emplean muchos controladores PID que continuamente miden su posición respecto a la posición final a la que quieren llegar. Al contrario de lo que muchas personas puedan pensar, esta técnica de navegación normalmente no emplea inteligencia artificial, no se aprende. El PID es un control determinista: ante "x" situación, haz "y". Lo más difícil en la navegación robótica es obtener la trayectoria a seguir por la máquina, pero una vez logrado, el movimiento con PIDs es una de las técnicas más sencillas, robustas y simples con las que los ingenieros contamos.

Tecnología clásica, pero usado en la vanguardia.



Corrección: El Segway no sigue exactamente el mecanismo de péndulo invertido

La pregunta Naukas 2017: mi respuesta

Desde hace dos años, Naukas lleva a cabo entre los colaboradores de la plataforma una pregunta, con respuesta libre. Ninguno de nosotros conoce las respuestas de los otros. Es muy parecido a lo que popularizó Edge. Aquí tenéis las preguntas de otros años. 

La pregunta de este año fue: 

¿Cuál es el hecho más fascinante del Universo?

Y esta es mi respuesta.


Son indescriptibles las sensaciones que cualquiera de nosotros hemos tenido alguna vez al  contemplar las estrellas, y darnos cuenta de la gota en el océano que somos en el inmenso Universo. Mundos que se asoman a nuestras cúpulas celestes, y sin embargo, tan lejanos.

Uno de las realidades más sorprendentes para mí ha sido la gran capacidad de extrapolación a otros mundos de las leyes universales de la ciencia. Es decir, el ser humano es capaz de imaginar nuevos mundos y plantearse teorías sobre orígenes, funcionamiento o posible vida en los planetas a partir de las leyes que hemos deducido en el nuestro.

Los cuerpos celestes pueden estar a miles de años luz, tener atmósferas distintas, tener una masa planetaria mucho superior a la nuestra… pero se tienen que seguir cumpliendo las leyes de la Química y Física fundamentales, hasta que se demuestre lo contrario. Esa navaja suiza cósmica siempre me ha parecido una gran herramienta y un hecho sorprendente para poder imaginarnos y descubrir nuevas realidades, tan solo observando unos pocos datos desde nuestros telescopios o satélites.




Sí, Sr. Rajoy: la inteligencia artificial ha batido al humano en el póker

Hace menos de un año que el presidente del Gobierno en España hablaba de inteligencia artificial en un encuentro con mujeres. El vídeo se ha hecho famoso con las explicaciones de Rajoy de por qué tenemos que seguir construyendo máquinas, y que yo usé en mi última charla Naukas. Sin embargo, en esta ocasión lo vuelvo a traer para hablar de la predicción sobre el póker que hace Rajoy en el minuto 0:28.




Y casualidades de la vida, esta predicción la semana pasada ha demostrado ser falsa, y la inteligencia artificial ha ganado al póker. De hecho, no es la primera vez que una máquina gana a este juego, pero en esta ocasión lo ha hecho de manera significativa, ganando un 99,7% de las veces en un torneo profesional. 

Es posible que el Sr. Rajoy estuviere incurriendo en uno de los mitos sobre la inteligencia artificial, que es sobre lo que quiero hablar en el post. Voy a contar los dos primeros mitos, los cuales son los que están relacionados con la hazaña del póker:


Mito1: Nunca crearemos una inteligencia artificial parecida a la del humano

Falso. Tal y como dice el artículo, la IA ya ha adelantado al ser humano en muchas facetas, al igual que la tecnología ha superado en muchas otras, como en volar, resistencia, duración, etc.

Ahora mismo la máquina nos sustituye en varias actividades relativas simples y repetitivas para el ser humano, pero es cuestión de tiempo (bastante, en mi opinión) que nos alcance en el resto de capacidades de pensamiento.

El ajedrez, el juego Go, el póker,... son juegos con reglas, están acotados. Ahora mismo la mayor parte de la inteligencia artificial se compone de un montón de reglas condicionales ejecutados de una manera ordenada y ponderada. Por lo tanto, una máquina gracias a su mayor potencia computacional puede superar a cualquier pesona. Ampliar esas cotas y eliminar restricciones es cuestión de tiempo. 


Mito 2: la inteligencia artificial será consciente

¿Para qué? No es necesario tener consciencia para llegar a una inteligencia de tipo humana. Las máquinas usan sensores (externos e internos) como inputs de sus algoritmos, y puede que llegue a un super-nivel de inteligencia, pero que no sean conscientes de sí mismas. Según los investigadores, son cosas que no tienen por qué ir juntas al referirse a la inteligencia artificial. Además, carecemos de una teoría científica de la conciencia ahora mismo.


Aquí hay algunas predicciones sobre IA para el 2017. Esta tecnología cada vez va a tener más impacto y presencia. A ver si este artículo llega a alguien del equipo de gobierno.


En Naukas: hacia el vehículo aéreo personal

Os dejo mi última entrada en Naukas. Este año a ver si mi carga de trabajo desciende y logro publicar más en esa plataforma y por aquí. 



Cuando a una persona le explicas que algún día podría llegar a usar vehículo aéreo como hoy en día usa el coche o la moto, se le suele iluminar la mirada. La idea resulta atractiva. Si la cultura motera defiende la libertad que proporciona una Harley-Davidson, imaginaos qué puede transmitir un Vehículo Aéreo Personal (PAV, en adelante).

Fue en 2003 cuando se sentaron las bases técnicas que definen un PAV tal y como se entiende hoy en día. Concretamente, la NASA lo define como:
  • Menos de 5 asientos.
  • Velocidad de crucero de 240–320 km/h.
  • Silencioso.
  • Cómodo.
  • Seguro.
  • Cualquier persona con una licencia de vuelo lo podrá pilotar.
  • Asequible, al igual que un viaje en coche o en avión (según distancia).
  • Apto para cualquier condición meteorológica.
  • Energéticamente eficiente.
  • Una autonomía de 1.300km
  • Capaz de aterrizar próximo al punto de destino, para lo cual se hace imprescindible la creación de pequeños aeropuertos comunitarios.
Yo añadiría “vuelo autónomo” a esta lista.

Para emocionarnos aún más, AirBus y Uber empiezan a proponer ideas como su aerotaxi, la Comisión Europea financia un proyecto para investigar en este ámbito, o la NASA propone el modelo Puffin (vídeo a continuación).


Habrá alguno que piense que el diseño de un PAV es muy fácil: basta con hacer los célebres “drones” o UAVs en escala mayor; además, son aparatos que semanalmente nos dejan noticias sobre sus avances en tecnología. ¿Cómo a nadie se le ha ocurrido industrializar uno capaz de transportar a una persona, como mínimo? Vayamos por partes:

Para empezar, un multicóptero (puede tener distinto número de brazos, pero me centraré en el de cuatro) no es nada eficiente energéticamente. Un helicóptero lo es mucho más. En el cuadricóptero los motores tienden a tener grandes cambios de velocidad de rotación para lograr la estabilidad, y eso penaliza mucho el consumo energético de las baterías.

La razón principal para esos cambios bruscos en el régimen de los rotores es debido a la inestabilidad propia de todos los multicópteros, que obliga a corregir el manejo de estos UAVs continuamente con el mando o con un sistema de vuelo autónomo.

La fórmula de la energía cinética dice que 0.5mv2 e implica que cuesta cuatro veces más de energía mover el aire al doble de velocidad, que mover el doble de masa de aire a la misma velocidad. Es decir, a mayor diámetro de hélices, el aparato sería más eficiente. Pero por otro lado, se pierde mucha estabilidad (¿entendéis ahora por qué esta universidad ganó el reto Sikorsky?)

Por último, un PAV multicóptero tendría un gran problema de seguridad. Los fallos de rotor podrían desembocar en serios accidentes a no ser que se implementen sistemas fail-safe que permitan aterrizar suavemente el “vehículo” ante la pérdida de un motor.

La empresa E-Volo lo sigue intentando, y hace prototipos y conceptos de vehículos que se asemejan a un multicóptero+helicóptero. Sin embargo, se queda en eso, prototipos y conceptos.

Pero llegados a este punto, cabe preguntarse por qué los cuadricópteros tienen tanto éxito como modelo de drone si tiene tantas pegas. Es muy fácil: por su simplicidad. Construir un cuadro de cuatro brazos con un motor en cada punta y que ese aparato vuele, es muy sencillo. No hay que preocuparse apenas por el diseño, ni por los materiales para lograr que levante el vuelo. De hecho, se ven tutoriales de diseños de drones unidos con celo y un par de listones de madera.




En resumidas cuentas, tiene mala pinta de que un posible modelo de PAV sea un cuadricóptero “más grande”. Siempre nos quedará el gadgetocóptero.



 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Web Hosting