-->

Reseña de El ojo desnudo, de Antonio Martínez Ron

Hace tiempo que no dedico una entrada del blog a escribir una reseña de alguna obra que me haya llamado la atención, pero El ojo desnudo, escrito por el ínclito @aberron, lo ha merecido.



Una breve introducción de lo que trata el libro la podéis encontrar en la web de Amazon, y en el blog del propio Antonio

"El ojo desnudo" es el hilo argumental que ha elaborado el autor para contarnos una gran historia científica a partir de los ojos del físico John Dalton, los cuales estaban olvidados por la historia en un sótano. A partir de estos elementos, Antonio nos cuenta la historia del conocimiento de la estructura del ojo humano, el mecanismo por el que vemos, y experimentos muy curiosos que se han llevado a cabo para llegar a las entrañas del conocimiento. Pero es imposible separar este conocimiento, de otras investigaciones que se desarrollaron en paralelo a lo largo de la historia, entre los que destacan los intrumentos de visión astronómica y conceptos básicos de ondas. 

Cuando terminas el libro, te quedas con la sensación de haber leído miles de ideas, y recuerdas bastantes de ellas de manera agradable. De todas formas, el libro no se compone solo de descripciones, sino principalmente de narraciones que ayudan a implicar al lector en la historia. La redacción es muy cuidada y amena, y el libro se lee bastante rápido. 

En definitiva: un libro muy recomendable para cualquier amante de la ciencia, que no requiere conocimientos previos para ser disfrutado.



¿Qué significa que no entendemos cómo funciona la inteligencia artificial?

Esta semana colaboré en la web de divulgación científica Mapping Ignorance con el tema que indico en el título. 

Hay cada vez más noticias de investigadores prestigiosos que afirman que la inteligencia artificial funciona, pero no entienden el proceso que se sigue internamente en el algoritmo para llegar a la solución. Algunas noticias son 1, 2, 3, 4, 5 y 6

En el artículo original, aunque esté en la lengua de Shakespeare, intento explicar lo más claramente posible qué significa eso. Se entiende enseguida. Pero eso no lleva a que estemos desarrollando sin saberlo un Terminator, ¡no os preocupéis!

Sin más dilación, aquí tenéis el artículo. ¡Buen domingo!




Un poco de estadística y fútbol

A las puertas del comienzo de una nueva Liga de Fútbol, aquí va un pequeño artículo sobre estadísticas y alguna curiosidad que quizás os hayáis planteado: ¿cómo se representan las estadísticas de los jugadores durante la temporada (por ejemplo, pases con éxito o tiros a puerta)?

Tomemos como ejemplo los tiros a puerta. Según esta página web, el total de tiros de Messi a lo largo de la pasada temporada fue de 131, de los cuales 77 fueron tiros a puerta. Es decir, un 58'78%. Ahora bien, pensemos en el comienzo de la Liga 2017/18. ¿Qué ocurre cuando el jugador hace su primer tiro? ¿Si va a puerta, tendría una efectividad de 100%? ¿Y si falla, del 0%? ¿No es esto un poco drástico? ¿Significa esto que Messi va a quedarse toda la temporada probablemente en un valor de alrededor de 0 ó 100% de efectividad de tiros a puerta? 

¡Claro que no! Pero eso es porque partimos de información previa, y es el conocimiento de las estadísticas de Messi más o menos al finalizar las temporadas, y eso en estadística tiene mucho sentido y en inglés se le denomina prior. Vayamos paso a paso.

Para los tiros a puerta viene muy bien una herramienta que ya vimos en un post anterior, y es la distribución binomial Beta, que oscila entre (0, 1) y está determinada por los parámetros α y β.

Para el caso de los tiros a puerta habituales de un jugador, vamos a imaginar que al final de la temporada, la mayoría de jugadores tienen una efectividad del 27% respecto al total de tiros. Esto equivale a una α =  81 y  β =219.


Ahora mismo, esa distribución sería la siguiente:



En principio, la probabilidad inicial de cualquier jugador (incluído Messi) de acertar tiros a puerta es este, obtenido a partir de los datos de todos los jugadores a lo largo de la temporada pasada. Ahora, ¿qué ocurre cuando Messi realiza el primer tiro de la temporada en el primer partido de Liga? Actualizamos la función binomial Beta de la siguiente manera:

Beta(α + aciertos, β + fallos).

Es decir, si el tiro iba a puerta, es un caso de éxito, y tendríamos la nueva Beta (81 + 1, 219), y esa función dibujada sería la siguiente:

Los cambios son apenas perceptibles entre una gráfica y otra, pero los ha habido. Es normal que ocurra esto, ya que significa que un tiro no altera apenas las estadísticas globales de un jugador a lo largo de la temporada.

Pero según se van acumulando los tiros, se nota aún más. Pongamos que el jugador hace 300 tiros en una temporada, de los cuales a puerta van 100. Tendríamos Beta (81+100, 219+200):


Ahora sí que se notan cambios aparentes. Y además, la distribución se ha estrechado, debido sobretodo a que la probabilidad de acierto de Messi a lo largo de la temporada ha sido bastante baja.




Nota
Los valores iniciales de α = 81 y β = 219 se obtienen a partir de la siguiente fórmula:




El artículo está basado en este hilo de Stackexchange.



https://stats.stackexchange.com/questions/47771/what-is-the-intuition-behind-beta-distribution

Razones para no perderse Naukas Bilbao 2017

- Naukas Bilbao es un acontecimiento referente de divulgación científica, en el que se combina ciencia + humor en charlas de aproximadamente 10 minutos.

- Este año será más grande que nunca: el evento se celebrará en el Palacio Euskalduna de Bilbao. Un escenario espectacular.

- Ya nadie se quedará sin sitio ni poder entrar. ¡El nuevo aforo es de 2.000 personas! Ni tampoco tendréis que hacer las largas colas que se han visto en las ediciones pasadas.

- Cada vez se van incorporando a la familia Naukas más ponentes, cada uno con un tema distinto y que seguro que os atraerá (biología, física, astronomía, matemáticas, derecho, informática, antropología, química, ingeniería...).

- Este año volvemos a contar con Naukas Kids: ciencia y talleres para los más pequeños.

- Volverán a haber sorpresas, científicos de prestigio internacional y entrevistas interesantes.

- Ya vamos por la séptima edición. ¡Cada vez el evento sale mejor! 

- El público que asiste, ¡normalmente otro año repite!

- La asistencia al evento es totalmente gratuita.
 

Recordad, entre el 14 y el 17 de septiembre tenéis un evento en la agenda
Aquí podéis consultar el programa provisional.









Colaboración en Next_Ciencia: Musk vs Zuckerberg: ¿quién teme al robot feroz?

Esta semana colaboro con @Next_Ciencia, la sección científica de Vozpópuli a cargo del gran @aberron. Por cierto, si no le seguís ya: ¡hacedlo, insensatos!
El enlace original es este, y a continuación os dejo una copia del artículo. Gracias a los lectores, ¡y buen domingo! 

-------------------------------------------------------------------------------------------------
En los últimos días dos grandes gurús de las nuevas tecnologías han intercambiado algunos zarpazos a propósito de sus diferentes visiones sobre la Inteligencia Artificial (IA). Elon Musk, creador de PayPal o Tesla Motors, se ha manifestado partidario de regular la IA y está convencido de que puede ser la mayor amenaza para la humanidad, mientras que el creador de Facebook, Mark Zuckerberg, cree que se trata de una actitud irresponsable y que las predicciones apocalípticas de Musk lo único que consiguen es frenar el desarrollo y la profundización en esta disciplina. Como respuesta, Musk aseguró en Twitter que la comprensión de Zuckerberg de la IA es “limitada”.
No es la primera vez que Elon Musk declara públicamente su preocupación por la IA. Ya en 2015 más de 1000 investigadores prestigiosos firmaron una carta abierta pidiendo a la ONU que prohibiese las armas militares basadas en IA. Y en cierto modo sí, es verdad, la IA está clasificada como uno de los riesgos a los que se enfrenta la población mundial. Concretamente, por las instituciones Global Challenges Foundation y World Economic Forum, y se equipara a esta tecnología a la llegada de asteroides o a la amenaza nuclear.

Sin embargo, como apunta el experto en robótica Rodney Brooks, es posible que sea el propio Musk el que tenga una visión limitada y distorsionada de la Inteligencia Artificial y el que está confundiendo los hechos. Veamos por qué.

En primer lugar, conviene aclarar el miedo de los investigadores que firmaron la famosa carta no se refiere a que una hipotética carrera militar culmine con la creación de una especie de Terminator que se vuelva en contra de la raza humana. A día de hoy, la IA está muy lejos de esos términos de volverse en contra de sus creadores y hay amenazas más apremiantes para el planeta como la guerra nuclear o el cambio climático. ¿Entonces a qué tienen miedo los firmantes de la declaración? Lo que estrictamente solicitaban en la carta abierta era que se asegure que los sistemas (robots o software) dotados con inteligencia, hagan lo que está estrictamente programado para hacer y no otra cosa inesperada. Para solucionar esto, se podría imponer que los aparatos dotados con IA tengan un código abierto, o que sean revisados por una entidad independiente u otras posibilidades. Esto no es tan fácil ni siquiera hoy en día, y si no, invito a los lectores a recordar el famoso Dieselgate de Volkswagen.

Para entenderlo, pensemos en algo más realista que en el manido Terminator: pongamos que popularizamos exoesqueletos con inteligencia artificial para ayudar a las personas mayores en sus tareas físicas diarias. Si la persona está bajando por las escaleras, y por alguna razón, requiere a los motores del exoesqueleto que desarrollen un par de fuerza que los podría quemar, ¿no nos tendríamos que asegurar que ese aparato decida siempre ejercer esa potencia y priorizar a la persona? Decirlo es fácil, pero implementarlo y certificarlo no lo es tanto.
Es decir, antes que imaginarnos historias de ciencia ficción, hay que atender a detalles más concretos y realistas. Además, como señala Brooks, las personas que tienen esta visión amenazadora de la IA suelen ser gente que no trabaja en IA, y se refiere explícitamente a las advertencias hechas por Stephen Hawking o Martin Rees. “Los que trabajamos en Inteligencia Artificial sabemos lo difícil que es conseguir que algo realmente funcione a nivel de producto”. Y aquí es donde llama la atención que Elon Musk tire piedras sobre su propio tejado, ya que él mismo está implantando Inteligencia Artificial en sus vehículos, y hace declaraciones como los que no confían en sus coches autónomos “están matando a gente” o asegura que estos modelos son dos veces más seguros. También su empresa Paypal se vale de inteligencia artificial para detectar el fraude, de modo que sembrar la duda sobre las posibilidades de esta tecnología es terreno pantanoso para él mismo.

Pero no todo van a ser palos para él. El fundador de Facebook también se equivocó en enero de 2016 afirmando que no hace falta temer a la IA. Y ese extremo tampoco es cierto. Una persona que sabe muy bien de qué va la cosa es Demis Hassabis, cofundador de DeepMind: a día de hoy, una de las empresas que más está avanzando en la IA. De hecho, sus declaraciones pueden responder tanto a Zuckerberg como Musk, ya que afirma que “estamos aún a décadas o siglos de conseguir una inteligencia artificial parecida a la humana”, “ahora mismo estamos practicando con pequeños juegos”, “pero eso no significa que no haya razones para no ser cautos”. Además, es muy optimista frente al futuro de esta tecnología, ya que está ayudando a optimizar procesos de empresas, a incrementar beneficios, a hacer mejores diagnósticos médicos, detectar fraudes y reducir los accidentes de tráfico.
Uno de los errores que puede estar cometiendo Musk y los apocalípticos es creer que tenemos un control mayor de la IA del que realmente tenemos. En este sentido Brooks recuerda que los creadores del admirado AlphaGo, el potente Google DeepMind que venció al campeón de Go, admitieron recientemente que todo podría haber salido espantosamente mal en su desafío. Y tampoco debemos perder de vista que la IA no es un ente autónomo que ha cobrado conciencia como Skynet, sino una combinación de tecnologías que los humanos están probando y que dependen fundamentalmente de nosotros.

Por el momento, algunos de los robots más avanzados siguen siendo copias bastante precarias de los autómatas que hemos visto en las películas de ciencia ficción y están a años luz de los replicantes. Observando la dificultad que aun existe para definir tareas tan sencillas como correr o parar un penalti no parece que máquinas estén muy preparadas aún para conquistar el mundo con sus movimientos.



El mejor resumen del estado de la s cosas se recoge en la primera frase del Informe de los 100 años de la IA elaborado por prestigiosos investigadores en este ámbito:

El retrato terrorífico y futurist de la Inteligencia Artificial que domina las películas y las novelas, y moldea la imaginación popular, es ficticio. En realidad la IA está cambiando ya nuestras vidas diarias, casi siempre de maneras en que mejoran la salud humana, nuestra salud y la productividad.

En este informe se realizan recomendaciones sobre la regulación de esta disciplina de cara a 2030. Y esto tiene que quedar claro: conviene estudiar ahora las medidas a adoptar, antes de que los sistemas inteligentes se hayan masificado y su buen funcionamiento, uso de datos, estandarización, etc., estén descontrolados. Por descontado que algo que se puede volver tan habitual en nuestras vidas, hay que regularlo, y ya hay iniciativas, como la que inició la Casa Blanca en 2016 o la Unión Europea

Por lo tanto, y en resumen, es conveniente quedarse con las siguientes ideas:

1) La Inteligencia Artificial está aún muy lejos de los niveles de Hollywood

2) Hay que ser cautos de cara a su desarrollo y regular los sistemas inteligente

3) Ya hay muchos dispositivos con IA en nuestras vidas y están ayudando a resolver problemas.

Así que tranquilo, Elon Musk: no eres el único que tiene interés en regular la IA. Y, por supuesto, recuerda que los robots no son el nuevo lobo feroz.




Fuente imagen

Cuando la inteligencia artificial hace cosas inesperadas

Quizás los lectores más fieles me hayan oído decir que la inteligencia artificial puede ser peligrosa y tener consecuencias inesperadas. Desde luego, en mi opinión estamos a años luz de escenarios como el de Yo, Robot, o películas de Hollywood similares. 

Actualmente, en gran medida, los algoritmos de inteligencia artificial son como "cajas negras". No sabemos cómo funcionan exactamente, y hoy traigo un ejemplo un tanto simplón que plasma esto bastante bien.

Lo recogió por primera vez este artículo científico de 1992, aunque no fue hasta 2008 cuando Elezier Yudkowsky lo puso de moda en su artículo sobre los riesgos globales de la IA. La historia es la siguiente:

En los 80, los militares estadounidenses intentaban proteger a sus tanques de la tecnología informática de la época, de manera que no los detectasen tan fácilmente y fueran más difíciles de atacar. Para ello, tomaron 100 fotos de tanques escondidos tras los árboles y otras 100 de árboles sin tanques.

Posteriormente, diseñaron una red neuronal en la que entrenaron la detección de tanques con 50 fotos de cada caso. Es decir, usaron 50 fotos con tanques para que "el sistema" aprendiera cuándo los había, y otras 50 fotos sin tanques para que el resultado fuera que no se detectan tanques.

Este entrenamiento sirve para afinar la red neuronal. Una vez afinada (según ellos), comprobaron que con las 100 fotos que faltaban, el sistema funcionaba perfectamente en el 100% de los casos. Es decir, parecía que los militares habían apredido a discernir cuándo sí y cuándo no había tanques entre los árboles. ¡Vaya adelanto!

Sin embargo, otro día probaron de nuevo este detector, se llevaron una gran desilusión cuando vieron que fallaba más que una escopeta de feria en la nueva detección. Nadie entendía nada. 

Tuvieron que pasar muchas horas para que alguien se diera cuenta que el entrenamiento (cómo habían enseñado al detector), lo habían hecho con 200 fotos con el cielo completamente nuboso. Y en el día de las nuevas pruebas, como estaba despejado, no reconocía a los tanques.

Gracioso, ¿verdad? Ahora, cualquier investigador sabe que 100 fotos para entrenar una red neuronal son muy pocas, pero había que saberlo también en los 80. A pesar de que la potencia de computación haya aumentado, todavía nadie nos libra de que un sistema inteligente arroje resultados inesperados para el diseñador, como éste. Y ese es uno de los peligros de la IA de los que habitualmente me quejamos yo y @HelenaMatute.

De hecho, una demostración de resultado inesperado muy sonado ocurrió en 2012, cuando HP lanzó un sistema de reconocimiento facial un tanto especial. Aquí está el vídeo.




Actualización (19 de julio 2017)
A través de Twitter, @hhmmss me ha chivado que Volvo tenía cierto problema con sus coches y los canguros. Y este fallo es de 2017. Como veis, siguen sucediendo problemas de ajuste de sistemas inteligentes.

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Web Hosting