-->

2016, un año de lectura

Siguiendo la tradición de los últimos años, aquí dejo lecturas a lo largo de 2016. El orden es el cronológico.


Dark Pools (Scott Patterson)
El libro habla de cómo ha evolucionado las comunicaciones para las órdenes en las Bolsas americanas. Habla del high frequency trading, la infraestructura que hacía falta, la opacidad y las dark pools que hay en el sistema, y algunos precursores bastante conocidos que promovieron e impulsaron todo el sistema. Es el tipo de libro que describe la historia. Punto. Sin análisis, o mayor profundización, diálogos, etc. No me ha entusiasmado. Leí el libro sobre todo pensando en que me iba a explicar el famoso Flash Crash del 6 de mayo de 2010, pero el libro le dedica apenas 2 páginas.


Industrial Marketing Strategy (Frederick Webster)
Es un buen libro de consulta. Explica muchas cosas respecto a este tipo de marketing y cómo vender distintos tipos de productos o servicios. Para guardar durante toda una vida.



Ready Player One (Ernest Cline)
El mejor de este año. Es una historia de Sci-fi, donde el mundo se divide en una parte real, y la realidad creada por un sistema, Oasis. En Oasis, los protagonistas tienen que resolver puzzles y enigmas, inspirados en cultura gamer y pop.


Sin remordimientos (Tom Clancy)
Tom Clancy es un prolífico autor de obras de acción/infiltración que ha inspirado a videojuegos como Splinter Cell. Cogí el libro con muchas ganas, pero la historia se me ha hecho muy lenta y simple. No obstante, he oído críticas tan buenas de este autor, que le daré alguna otra oportunidad.



El hombre anumérico (John Allen Paulos)
Entretenido y didáctico. Muchos ejemplos sobre situaciones y casos concretos donde usamos muy mal los números o no somos conscientes de su importancia para entender numerosos problemas. Muy recomendable. Se lee en dos patadas.

 ¿Sueñan los androides con ovejas eléctricas?
Género cyberpunk de sci-fi. Quizás sea una ciencia ficción muy dura para la que yo estoy acostumbrado. Es una historia bastante corta, pero no me ha entusiasmado el libro.



Master Switch (Tim Wu)
Es un libro del mismo estilo que Dark Pools. Describe una historia.
En este caso, se centra en el mundo de las telecomunicaciones y su evolución, luchas de poder, y apuestas por una tecnología u otra. Desde el telégrafo, pasando por la radio, hasta llegar a la fibra óptica y las luchas por la neutralidad de la Red. Este libro me ha gustado mucho. Un poco largo, pero se entiende muy bien.


La desfachatez intelectual (Ignacio Sanchez Cuenca)
Me ha gustado. Es un libro crítico sobre el análisis del debate político y económico de España. El autor no se casa con nadie, y razona muy bien todas sus afirmaciones. Explica bastante historia, lo cual me ha gustado. Se lee rápido.


Los asesinatos de Manhattan (Douglas Preston, Lincold Child)
Se trata de uno de los libros del detective Pendergaast. No conocía la saga. Son novelas de misterio, muy ágiles y con una trama que a mí me enganchó.


Pequeña historia de las Telecomunicaciones (JM Sánchez Ron)
El libro explica de una manera muy clara lo que promete. Desde el habla, hasta las tecnologías de comunicación más recientes. La estructura de un capítulo para cada tecnología o cada avance en las comunicaciones ayuda a retomar el libro en cualquier momento desde cualquier parte. Corto, y muy recomendable.


The chaos imperative (Ori Brafman)
El libro es un alegato en contra del establecimiento de estrictas normas y orden como fin para conseguir la creatividad y la innovación. El autor fue uno de los encargados de asesorar en la renovación del ejército de EEUU. El libro se divide en capítulos para llevar a cabo ese "caos" y por qué es bueno o malo. Los lectores podemos estar de acuerdo o no con él, pero a lo largo del libro se cuentan historias sobre grandes descubrimientos y anécdotas que no conocía. Se lee fácil.


Planilandia (Edwin Abbott)
Este libro llegó a mis manos como uno de los 10 libros de ingeniería que todo estudiante debería leer, según la web Docsity. No me ha gustado. El libro describe el mundo en el que conviven las figuras de 1, 2 y 3 dimensiones. Según sus atributos geométricos, los habitantes de ese mundo tienen unos atributos sociales u otros. 



The lady tasting tea (David Salsburg)
Es un libro en el que explica la historia de la Estadística, y cómo revolucionó muchas disciplinas científicas. Contextualiza mucho la cultura que había en la época, cómo se conocieron los protagonistas de esta revolución y cuenta cosas muy curiosas como la estrecha relación entre la cerveza Guiness y la estadística. Además, el libro sirve de enseñanzas técnicas.



Snowden, sin lugar donde esconderse (Glenn Greenwald)
El autor es uno de los periodistas que se encontró con Snowden hace unos años y recibió los documentos filtrados sobre la NSA. Por un lado se cuenta cómo fueron esos días y por dónde se movió Snowden, y por otro lado, es un libro bastante detallado sobre una recopilación de informes sobre el impacto de la vigilancia masiva en la seguridad nacional, en la prevención de atentados, etc. A mí me ha gustado mucho más esta segunda parte, pero el libro me ha defraudado un poco. Se lee fácil.

 
La invención de Morel (Bioy Casares)
No me ha convencido el libro. Se me ha hecho difícil de leer. Probablemente sea un grado de ciencia-ficción al que no estoy acostumbrado.


Comer sin miedo (JM Mulet)
A quien conozcáis al divulgador científico JM Mulet, no hace falta describiros de qué va el libro. Mitos y falacias sobre alimentación ecológica, mala alimentación, productos químicos a los que tenemos miedo, etc. Muy entretenido, riguroso y explicativo. Divulgación científica de la buena.


Dreams from my father (B. Obama)
La autobiografía del actual presidente de Estados Unidos. Describe su infancia, su juventud, el tipo de actividades que hacía y los intereses y causas sociales que le quitaban el sueño. Un libro muy introspectivo del autor, quizás un poco largo. Ayuda a entender algunas de las esperanzas que los habitantes de EEUU tenían en este hombre.


El hombre que confundió a su mujer con un sombrero (Oliver Sacks)
Oliver Sacks tiene fama de ser uno de los grandes divulgadores científicos de los últimos tiempos. Afortunadamente, fue muy prolífico y escribió varias obras. Esta es la primera que leo sobre este neurólogo, y sobre algunos de los casos clínicos más extraños que se ha encontrado en su carrera profesional. Todos ellos explicados muy fáciles de entender para los no duchos en medicina, y contados con una humanidad muy característica. Muy recomendable.



Virus y pandemias (Ignacio Lopez Goñi)
Otro libro de un colaborador Naukas. En este caso, Ignacio habla sobre microbiología y virus desde un punto de vista de divulgación. No tengo ni idea de virología, y me he enterado del libro perfectamente. Además, su estructura de capítulos muy cortos ayuda a una lectura muy rápida y ágil; a lo largo de sus páginas, entenderéis mucho más sobre la grive aviar, el ébola, el VIH, y anécdotas de la construcción del canal de Panamá, entre otras.


Disecciones (Next Door)
Este es mi último libro del año. Está compuesto por 10 historias con la enfermedad como hilo conductor. Todos los autores son divulgadores científicos, pero ninguno es médico. Son grandes historias, contadas de manera sorprendente y enternecedora.


Algunos libros se han quedado por el camino, como La Guerra en Sombras, Neuromancer o Learning To Learn. Que no los haya terminado no significa que no sean buenos libros o que no los retome un día.

Admito sugerencias para el 2017 (podéis dejarlas en los comentarios), y recordad que @dani_epap, @omalaled y @InerciaCreativa son otros autores que suelen hacer sus recomendaciones por esta época del año, entre otros.

¡Feliz Año!




El resurgir de la industria manufacturera de Estados Unidos

Gracias a las últimas elecciones norteamericanas, algo de realidad industrial de ese país ha llegado a nosotros. Se ha hecho bastante conocido el Cinturón de Acero, o Rust Belt,  que se refiere a esas regiones que vivieron un pasado económico muy esplendoroso gracias al buen momento del sector industrial, o manufacturero.

Este post no va de estudiar la influencia de estas regiones en el resultado final a favor de Trump, sino que os adelanto que la historia tiene a los robots como protagonistas. En una entrevista de televisión previa a las elecciones, Trump dijo "we don't make anything anymore".

Según la United States Bureau of Labour Statistics, esta es la evolución del empleo y la producción en este sector:


Es verdad, ahora hay un 29% menos de trabajadores que hace 20 años empleados en este sector, pero al mismo tiempo, los fabricantes generan un 47% más que en ese período de tiempo también. Por lo tanto, la muerte del sector es un mito generado por la retórica electoral estos meses. ¿Pero entonces, qué ha pasado realmente?

La principal razón para la bajada del empleo ha sido la deslocalización de empresas a China y otros países de mano de obra más económica, tal y como afirma un informe de 2016 del Congreso de Estados Unidos: a sharp increase in the bilateral U.S. trade deficit with China following that country’s accession to the World TradeOrganization in 2001 contributed importantly to manufacturing job loss in the first half of the last decade. 

Hay otra razón habitual, y consiste en la incorporación de nuevas tecnologías que aumenta la producción y reducen la necesidad de tantos trabajadores. Y esto ya empieza a sonar a robots. Veamos ahora qué ha ocurrido con la industria de automoción en el país que nos ocupa.


Como se puede ver, según la US Bureau of Labour Statistics el empleo se ha reducido drásticamente, pero empieza a remontar a partir de 2010. Sin embargo, la sorpresa nos la llevamos cuando leemos el titular de la International Federation of Robotics recogido a partir de un informe de noviembre 2016.

US auto industry installed 135,000 robots and added 230,000 jobs

Según explican, en la industria de automoción durante los últimos 5 años se han instalado 135.000 robots, y eso ha generado casi el doble de puestos de trabajo. ¿Es verdad? El balance neto entre el año 2000 y 2016 es claramente negativo, trabaja mucha menos gente en este sector. Si según la BLS entre 2007 y 2009 se perdieron 340.000 puestos de trabajo en esta industria, ¿el titular no será que los robots han reemplazado a 110.000 personas?

Tras leer más informes y ponerme en contacto con los autores del estudio, ese titular alternativo es falso. Esta es la realidad: la pérdida de trabajos entre 2007 y 2009 no fue debido a los robots, ya que en esos años su presencia era muy limitada. Más importante era la jubilación de los baby-boomers. La causa fue la baja competitividad de los fabricantes de coches estadounidenses, los cuales se veían superados por la calidad de las marcas de vehículos japoneses y europeas, y perdieron cuota de mercado. Además, todas las industrias sufrieron la crisis financiera, y la crisis en el sector de automoción norteamericano fue particularmente dura, y si no que os lo recuerde el Obama de entonces.

Las grandes marcas se restructuraron totalmente, y a partir de 2010 el mercado fue mejorando. Incorporaron robots, los cuales requieren de un tipo de empleado distinto del previo a 2010. Antes de esta fecha, el tipo de trabajo a realizar era más generalista, sin embargo los robots requieren un trabajo y una cualificación especializada, lo cual generó la necesidad de ese tipo de perfiles. El incremento en la curva de empleo se traduce en trabajadores más preparados, especializados y normalmente jóvenes que los que habían antes.

El futuro y la robótica están totalmente ligados, y eso está transformando junto a otros factores, el mercado laboral y la economía.


Fuentes: 
1, 2, 3, 4, 5, 6, 7, 8

Reescribiendo el diccionario: un poco de lenguaje e inteligencia artificial

No es habitual promulgarme en eventos de charlas. Hoy os dejo mi última participación en una de ellas, en la pasada Semana de la Ciencia de Donostia. 

En esta ocasión, hablé sobre las consecuencias que puede tener la inteligencia artificial en nuestra visión de las cosas, y de un poco de seguridad informática. Espero que os guste. Tenéis todas las charlas que se impartieron junto a la mía aquí. Cada una de ellas dura unos 10 minutos y tienen una buena dosis de humor.


ZIENTZIA CLUB en Donostia:Julián Estévez Donosti from UPV/EHU on Vimeo.



Qué vas a oír cada vez más sobre Inteligencia Artificial

Aprendizaje por refuerzo (Reinforcement Learning, en la lengua del imperio). Es mi opinión. Pero voy a explicar las razones.

La Inteligencia Artificial la podemos imaginar como un agente que puede terminar ganándonos al ajedrez. Sin embargo, en el caso de Deep Blue (1997), hubo que enseñarle a jugar primero. No era una máquina que partía de 0, sino que tenía almacenadas millones de grandes partidas en su memoria, y a cada movimiento se dedicaba a analizar la mejor opción.

Totalmente distinto es el caso de AlphaGo (2016), la IA de Google que derrotó al campeón del mundo de Go. En este caso, la máquina adquirió el conocimiento por sí misma, jugando ella sola millones de partidas, y comprobando cómo de bueno era cada movimiento. Consiste en una especie de prueba y error. Gracias al poder computacional actual, se pueden hacer muchas miles de pruebas.

Es decir, a AlphaGo no hubo que enseñarle o introducirle un conocimiento previo, sino que es como si a nosotros nos hubieran dado un tablero con las fichas, y lo aprendiéramos a jugar como un maestro nosotros mismos, sin leer ni un solo libro ni ver ninguna partida previa. Mi único conocimiento previo son las instrucciones del juego.



Menos mediático, pero el aprendizaje por refuerzo ya fue noticia en 2015, donde un programa de ordenador aprendió a ganar en 49 juegos distintos del clásico Atari 2600, simplemente haciendo movimientos y viendo qué puntuación obtenía (se publicó en Nature).

En cierto sentido, el aprendizaje humano también sigue el proceso de reinforcement learning, sobre todo en el dominio de habilidades motoras. Imaginémonos cómo aprendimos a andar en bici, o a nadar, o a andar. ¿Cómo nada un buen deportista? Ejecuta los mejores movimientos en el momento preciso que él ha visto que le impulsan con más fuerza o velocidad a través del agua. Es lo mismo que un niño pequeño cuando aprende a andar en bici. Tras un proceso, hay una convergencia en la que el niño aprende a emplear la fuerza justa en cada pierna y espalda para mantenerse en equilibrio.

En el siguiente vídeo, un sencillo robot aprende cuál es la técnica (posición y fuerza) con la que se desplaza más rápido por una alfombra.


En ingeniería, a la consciencia de que un tipo de movimiento lleva a un a buen resultado, se le denomina recompensa.

El aprendizaje por refuerzo no es cosa de ahora. Sin embargo, la combinación de este algoritmo y otras técnicas de inteligencia artificial, como redes neuronales, o árboles de decisión, se está mostrando muy prometedor de cara a que cada vez las máquinas aprendan tareas más complejas y menos limitadas. No nos engañemos, jugar al Go es bastante limitado, tanto como avanzar en línea recta. Es por ello que cada vez se oirá más el término deep reinforcement learning, que nace de sumar deep learning + reinforcement learning. Deep learning lo han hecho muy famoso los gigantes tecnológicos, y su principal característica es la existencia de muchas capas de redes neuronales. No solo eso, una de las compañías que se ha convertido en referencia últimamente es DeepMind, de Google.

De hecho, precisamente es esta capacidad de aprendizaje automático lo que preocupa a los científicos. Hay incertidumbre sobre si una máquina, gracias a algoritmos como el deep reinforcement learning, pueda llegar aprender cosas para los que los humanos no las hemos creado. Es decir, que amplíe descontroladamente el aprendizaje gracias a la mejora de percepción que está sufriendo esta tecnología.


Qué ocurre cuando le das un péndulo a una máquina

Hoy os dejo la charla que tue el honor de dar en la sesión de Naukas Bilbao 2016, y de paso agradecer a la organización y al público el apoyo y facilidades que nos dan a los ponentes. 

Mi charla se titulaba ¿Qué ocurre cuando le das un péndulo a una máquina? e intenté tocar muy superficialmente las implicaciones sociales y legales que puede tener la entrada masiva de robots en nuestras vidas. Aquí os dejo el link y la charla.




Y recordad que esta semana, Naukas sigue "de gira",  y hace escala en Donostia, donde participará en el Passion For Knowledge que organiza el Donostia International Physics Center y que reúne a varios premios Nobel y grandes científicos en varias charlas.

Aquí os dejo el programa.


La Inteligencia Artificial y el Infome de los Cien Años

Algunas de las mayores empresas tecnológicas del mundo (Amazon, Facebook, Amazon, IBM y Alphabet) están intentando predecir y ponerse de acuerdo en el futuro de la Inteligencia Artificial (IA). Concretamente, sus reflexiones quedaron reflejadas en el Informe de los Cien Años para el período de 2015 (es un proyecto comenzado en octubre de 2014) que auspicia la universidad de Stanford, y en el que intervienen esos gigantes empresariales. 

En él, se analiza la penetración de la Inteligencia Artificial (IA) en la sociedad, ciencia y en la tecnología.y se realizan una serie de reflexiones y recomendaciones sobre la regulación y las políticas públicas a llevar a cabo en la IA de cara a 2030. El seguimiento de estas sugerencias en teoría permitiría avanzar en otros campos en los que la IA influye, y que se implemente de una manera justa, ética y moral. En este estudio no sólo participan expertos en tecnología, sino también en derecho, economía o política. El Gobierno de EEUU ya solicitó formalmente en junio de este año información sobre las implicaciones de la tecnología inteligente.

En este post mencionaré los puntos que más me han llamado la atención del informe, a modo de resumen. El informe completo podéis descargarlo de esta página.


INTRODUCCIÓN
- La primera frase del informe (p. 6) es que las predicciones apocalípticas de las películas y novelas sobre la IA son ficticias. Actualmente, esta ciencia ya tiene su influencia y está mejorando nuestras vidas en términos de productividad, sanidad y seguridad.

Conviene poner el foco en el abuso de la IA. Algunos de los campos más prometedores que mejorará próximamente son el transporte seguro, la educación infantil y en la autosuficiencia de las personas.

Una de las claves del éxito consistirá en la personalización de las máquinas a cada persona, lo cual se logrará cuando se distribuyan aún más.


POLÍTICA Y REGULACIÓN
- La robótica y la IA ya está sustituyendo a los humanos en los puestos de trabajo. Por lo tanto, la sociedad está en un momento crucial para que esta sustitución y transición nos lleve a una calidad de vida mejor, una sociedad más democrática, igualitaria y transparente (p. 6).

- Uno de los factores que más impulsa la IA es la disponibilidad de bases de datos masivas, lo cual a su vez también plantea el eterno problema de la escalabilidad de la IA (p. 8).

- Las políticas públicas deben estar dirigidas a facilitar la adaptación de la IA en la sociedad, fortalecer sus beneficios y mitigar los inevitables errores. Debería promocionarse el debate sobre cómo va a extenderse esta disciplina en la sociedad, en términos de privacidad y beneficios equitativos (p. 10).


- Actualmente en Estados Unidos hay 16 agencias gobiernan sectores de la economía y están relacionadas con la IA. Algunos de los conceptos a aclarar cuanto antes son: "¿quién es responsable en un accidente de coche autónomo o cuando falla un dispositivo médico inteligente?" "¿Cómo puede la IA ayudar a prevenir el fraude fiscal o la discriminación racial? "¿Cómo se protegen las habilidades de los empleados que claramente pueden ser reemplazados por máquinas?" (p.10)


DEFINICIÓN DE IA
La IA es la actividad dedicada a hacer las máquinas inteligentes, y la inteligencia es la capacidad que permite a un agente funcionar de acuerdo a su entorno y a su posible evolución (p. 12)


TENDENCIAS DE LA IA en INVESTIGACIÓN
Esta parte del informe es bastante extensa (p. 13 a 42), en la que el informe estudia dos aspectos:

- en primer lugar, define brevemente las distintas ramas y técnicas de la IA que principalmente seguiremos desarrollando (deep learning, navegación robótica, aprendizaje por refuerzo, etc). A mí particularmente me ha llamado la atención la afirmación de que el problema de la navegación robótica se considera "ya resuelto", y que la investigación tiene que dirigirse hacia la interacción con el entorno y la percepción automática.

- en segundo lugar, predice cómo afectará la inteligencia a distintos sectores de nuestra sociedad, tales como educación, sanidad, transporte o seguridad. No voy a entrar en detalles al respecto, ya que quiero centrar el post en las implicaciones y necesidad de regulación. Si queréis un buen libro que explica muy bien estos retos y previsiones en distintos sectores de la economía, os recomiendo el libro El Auge de los Robots.


RECOMENDACIONES FINALES PARA LA REGULACIÓN DE LA IA

 - Definir un plan para que expertos de distintos campos asesoren a los gobiernos de distintos niveles en la aplicación de la IA en la sociedad, y los beneficios que puede conllevar.

- Eliminar las barreras e impedimentos actuales para investigar la equidad, seguridad, privacidad e impacto social de los sistemas inteligentes.

- Aumentar el gasto público y privado en los estudios interdisciplinarios de los impactos sociales de la IA.



Estas conclusiones coinciden mucho con las que el Instituto de Investigación de Aprendizaje Máquina de EEUU redactó en julio, y se puede leer también aquí




Fuente

Naukas Bilbao 2016, la cita con la divulgación científica

Con el fin del verano, vuelve como un año más la gran cita de píldoras científicas: Naukas Bilbao. Este año se celebrará el 16 y 17 de septiembre, así que id haciendo hueco en vuestras agendas. El programa provisional de charlas podéis encontrarlo aquí:


Para quien no haya oído hablar de este evento, dos ideas: consiste en que los divulgadores de ciencia (principalmente participantes en la plataforma Naukas) subimos al escenario a contar ideas científicas, pero en no más de 10 minutos. Las charlas son de los temas más variados que os podáis hacer a la idea: biología, física, ingeniería, matemáticas, química, astronomía, etc.

Este año además, contaremos con la participación de Pedro Duque, el astronauta español, durante el viernes por la mañana. Además, también se realizarán sesiones de Naukas Kids para los más peques, junto a talleres y otras actividades que la organización irá desgranando en la cuenta @Naukas_com.

A un servidor le toca sus 10 minutos de gloria el viernes por la tarde: ¿Qué pasa cuando le das un péndulo a una máquina?

Habrá streaming del evento. ¡Estáis todos invitados!

¿Se puede predecir el tiempo del ganador de 100m lisos en las Olimpiadas de Río?

Ya hay varios casas de apuesta en Internet que hacen sus pronósticos sobre quién será el ganador de los 100m. A día de hoy, por ejemplo en http://www.paddypower.com,




Y en un gráfico quedaría así:

En este punto, lo que tenemos es una serie de datos. Ahora, de lo que se trata es de intentar predecir el tiempo del Oro en la final de 2016. Tenemos una serie de datos temporales, y queremos predecir el nuevo punto. Para ello, hay una información muy valiosa, y es que la tendencia de los tiempos es claramente bajista.

La primera opción consistiría en obtener una línea que capture el comportamiento de los números de la manera más fiel posible. A esto se le llama línea de regresión, y se puede hacer con el método de mínimos cuadrados.



Lo cual corresponde a una recta de la siguiente forma:
En la ecuación anterior, x representa al año e y al tiempo. Por lo tanto, si hacemos cálculos, el tiempo en x=2016 sería de y=9,64s.

El método de los mínimos cuadrados persigue que en todos los puntos, la diferencia cuadrática entre el punto real y la recta que se obtenga sea la mínima posible. Sin embargo, esto lo hemos encontrado solo para una ecuación de segundo orden. En principio, cuanto mayor sea el grado de x, más se puede aproximar la curva a los puntos reales de los tiempos. Probemos y veamos en la siguiente imagen:


La línea roja corresponde al polinomio de segundo orden y el verde, al de orden 3. Sus ecuaciones son las siguientes:



Lo cual, para el caso rojo nos da un tiempo de 9,82 segundos en 2016. Y para el verde, 9,19 segundos. No conviene seguir aumentando el orden de la ecuación sin ninguna razón, ya que puede ocurrir el problema de overfit, y que los grados altos empiecen a asemejarse a la curva mucho peor que las ecuaciones de bajo grado.

Resumiendo, tenemos las siguientes opciones:
a) 9,64 seg
b) 9,82 seg
c) 9,19 seg.

¿Con cuál nos quedamos? Pues no necesariamente con ninguno. Me explico: Fijémonos en la primera ecuación, la de primer grado. 

 
Como se puede ver, casi ningún punto coincide con la recta, sino que hay una distancia entre la recta que hemos creado y el punto real. A esto se le llama residuo, y los hay de diferente magnitud a lo largo de todos los años, e incluso varían a estar por encima y debajo de la curva. Por estos residuos, quizás convenga no tratar la predicción de datos de manera determinista, sino considerando que va a haber una incertidumbre en nuestros pronósticos. Es decir, empleando métodos probabilísticos. Y uno de los más interesantes, es el método de Bayes.

Es una simplificación extrema, pero Bayes realiza predicciones según va a haciendo observaciones. De hecho, para realizar la predicción voy a emplear una variante de Bayes: el filtro de Kalman (explicada justo en la entrada anterior), el cual tiene una propiedad de predicción. Su implementación para una dimensión es muy sencilla, y este filtro va adaptándose con los nuevos valores. Sin entrar en muchas explicaciones y siguiendo los pasos del enlace anterior, el tiempo que arroja el filtro de Kalman es de 9,37 segundos.

A modo de resumen de la entrada: se aprecia que hay muchas maneras y basándose en distintos enfoques para realizar predicciones en el tiempo. Todo esto es la base de una disciplina muy en boga: machine learning, o el aprendizaje máquina, el cual sobre todo os sonará por el big data y la inteligencia artificial. 

No hemos ahondado en las muchas maneras más complejas que las presentadas para hacer predicciones, y sería pura casualidad que alguno de los resultados aquí arrojados coincidiera con el Oro Olímpico. Pero tampoco nos hemos metido en pasos previos que sí que se dan en el machine learning: descarte de valores poco representativos, filtrado, comprobación del ajuste de los métodos de predicción, etc.

In memoriam: Rudolf Kalman

El pasado 2 de julio falleció Rudolf Kalman, uno de los científicos cuyos resultados nos afectan directamente en la vida cotidiana. Es una fortuna que los científicos disfruten del prestigio durante su vida.

La mayor contribución de este matemático, ingeniero e inventor húngaro formado en Estados Unidos, es el celebérrimo filtro que lleva su nombre, y que se incorporó en el programa Apollo de la NASA en 1960. ¿De qué sirve este filtro?  No voy a explicarlo con un cohete, sino con un dispositivo mucho más sencillo:

Pensemos que un sensor nos arroja cada intervalo de tiempo una medida de la posición de la máquina, y que se iría llenando el siguiente vector de posiciones:

x = [0  0.1  0.22  0.31  0.42  0.50...];

¿Son estas posiciones las absolutas y las totalmente fiables? NUNCA. Por muy bueno y caro que sea un sensor, nunca será perfecto, y siempre su medida va a tener una incertidumbre. La medida que arroje un sensor en cada instante puede representarse mediante una campana de Gauss. Lo más probable es que la medida del sensor sea en el punto más alto, pero podría darse que estuviera en otro punto.

Y si imaginamos además que hay un sensor que mide la aceleración en los mismos intervalos de tiempo de mi máquina, tampoco puedo considerar que esas aceleraciones sean exactas. Ocurre exactamente lo mismo que con la posición. 

Vaya, ¡qué faena! Resulta que ni la posición ni la aceleración en cada instante de tiempo es fiable. Por lo tanto, en ningún momento parece que pueda asegurar dónde está mi máquina. ¿Llegamos a la Luna de chiripa o qué? 

El filtro de Kalman viene a resolver esas incertidumbres en las medidas de los sensores y fusiona los datos en sencillos pasos los datos hasta tener la posición real de mi máquina. Posiblemente, tras el filtrado de Kalman, la posición de mi aparato no sea el que he puesto en el vector x, sino:

x1= [0  0.11  0.23  0.30   0.40  0.48], por decir algo.

Programar el filtro de Kalman en Matlab o Excel es sencillísimo, tal y como se puede encontrar en numerosas webs, como ésta. Como os podéis imaginar, el filtro de Kalman está muy de moda ahora entre ingenieros que se dedican a la robótica móvil, pero es que esta herramienta se emplea en cualquier serie de datos temporales para predecir con más exactitud.

Hay una variable si el sistema a modelar es no-lineal, que es el filtro de Kalman Extendido, pero de ese no vamos a hablar ahora.

Puede que os interese saber que en todos los partidos de fútbol se emplea el filtro de Kalman para las cámaras del estadio y el seguimiento de objetos móviles. 

A pesar de todo lo dicho, Rudolf Kalman no fue el único que llegó a desarrollar su algoritmo. Tal y como indica la Wikipedia, esto fue una co-invención. Rudolf Kalman no fue el único que pensó sobre este problema, y entre otros estuvieron Gauss, Kolmogorov, Legendre... pero sobre todo, la co-autoría se puede atribuir también a Peter Swerling, quién llegó a una expresión parecida poco antes de manera independiente.


Accidentes con los coches autónomos: era cuestión de tiempo

Después de un periodo de trabajo bastante intenso en los últimos meses, intentaré volver a retomar una actividad más frecuente en el blog.

En esta ocasión, toca hablar sobre coches autónomos: el pasado 29 de junio, el coche Tesla Model S sufrió un fatal accidente en el que falleció su ocupante, Joshua Brown. El accidente surgió con el famoso autopilot de la marca, por lo que se convierte en la primera víctima mortal con este tipo de vehículos. Curiosamente, el experto en robótica, Alan Winfield, el 31 de marzo de este año publicó en su blog que la primera víctima era cuestión de tiempo.

El accidente está explicado en multitud de webs, pero creo que la siguiente imagen del NYTimes es bastante explicativa: 


Tal y como se puede ver, un camión de grandes dimensiones se cruzó en la trayectoria del coche, y éste no frenó. 

Es crítico conocer las razones que provocaron el fallo del autopilot. Todo apunta a un fallo de visión artificial, donde no se distinguió bien el color blanco del camión en contraste con el cielo de color claro que había en ese momento. Elon Musk es reconocido por ser crítico con el sistema LIDAR como instrumento para escanear lo que hay alrededor del vehículo y posicionarse (SLAM). El Tesla Model S equipa cámaras (sensor MobilEye concretamente), y probablemente el sistema LIDAR hubiera detectado sin problemas el camión en cuestión. 

El LIDAR es el sistema habitual en otras propuestas de coches autónomos, pero sus mayores problemas son el abusivo consumo de energía (por eso no lo equipa el Mars Rover) y su elevado precio.

Es irónico saber que la víctima realizó un vídeo dos meses antes en el que aseguraba que el sistema autopilot le salvó cuando un camión blanco más pequeño se le cruzó en su camino (a continuación se puede ver la grabación):


Pero como siempre, el diablo está en los detalles, y desgracias como ésta pesan tanto en la penetración de estos coches en la sociedad, como la propia tecnología. Y ahí van los detalles que marcarán las decisiones legales y de responsabilidad en este suceso:

1) El sistema auto-pilot de Tesla no es estrictamente un sistema autónomo. No está conectado al sistema de navegación, y simplemente se trata de un sistema supervisado de aprendizaje automático que no tiene el control último del coche. Más bien es un sistema que se guía por las líneas de las carreteras y las distancias a otros vehículos. Pero el conductor puede tomar el control total del coche cuando lo considere.

2) Será muy importante la decisión de cómo se van a gestionar los seguros y qué responsabilidad se carga sobre cada uno de los actores del accidente (conductor, fabricante Tesla y camión). Para mí Tesla sí que tiene parte de culpa, ya que su sistema de visión falló. Y tal y como dice este artículo, los pilotos de aviones vuelan con la opción de modo automático, pero están entrenados para actuar en caso de cualquier incidencia. No es el caso de los conductores habituales.

Tesla presume de tener una especie de caja negra de accidentes y dilucidar sin duda alguna de quién es la culpa en cualquier accidente, tal y como lo argumentó en otro tipo de accidentes. Sin embargo, también será importante leer detenidamente el contrato que firma cualquier comprador de Tesla.

3) En mi opinión, la mayor dificultad de la penetración y normalización de coches autónomos en nuestras vidas no será problema de la tecnología, ni de las carreteras, ni del precio. Serán los tests. Hay que hacer muchos muchos tests. Los vehículos autónomos no fallan como un humano. Han demostrado que son capaces de reaccionar a señales mucho más rápido que nosotros, a no fatigarse, o a mantener siempre la atención. Pero todavía no sabemos cómo gestionan toda la información que reciben y qué decisiones toman en consecuencia.

Estamos en un momento científico tecnológico apasionante.




Fuente original (blog de Tesla): https://www.teslamotors.com/blog/tragic-loss

Un poco de química y matemáticas del fútbol

¿Cuál es el origen de la estética y geometría del balón de fútbol al que estamos acostumbrados? Posiblemente, mucha gente atribuya este objeto a miles de horas de y trabajo de depuración de diseñadores. Como si tras un montón de pruebas, lográsemos un gran diseño estético de coche con sus líneas. Pero para los matemáticos, representa un curioso problema. ¿Habéis contado alguna vez cuántos paneles, hexágonos y pentágonos tiene un balón?



Pues si lo hacéis con un poco de paciencia, descubriréis que balones como el de la imagen tienen 12 pentágonos. La FIFA concretamente no dice nada de esto, sino que dice que para que una pelota sea pelota:
- debe ser una esfera con una circunferencia entre 68 y 70 cm.
- con un máximo de una desviación de 1.5% de la forma esférica cuando esté inflada
- la presión debe ser de 0.8 atmósferas.

¿Cuántos hexágonos tiene? Esto os costará un poco. ¡Armaros de paciencia para contarlos!

Pero a ver, ¿dónde está aquí la matemática y la química? Pues obviamente, el problema matemático reside en cómo encerrar un volumen sólo con pentágonos y hexágonos. Fíjaos en las siguientes imágenes (extraídas de aquí):

Son figuras que encierran un volumen y están formados por pentágonos y hexágonos... pero eso no tiene pinta de rodar por el césped correctamente (El de la izquierda tiene 20 vértices y 12 pentágonos; el de la derecha a su vez, tiene 24 vértices, 12 pentágonos y 2 hexágonos). ¿Cuál es la característica común en estas dos figuras? Que ambas tienen 12 pentágonos, y a eso se le denomina fullereno

Si manteniendo los 12 pentágonos, aumentamos un poco el número de hexágonos y de vértices, obtenemos formas que se parecen ya. Concremente, la siguiente figura tiene 12 pentágonos y 20 hexágonos, y si no estuviera inflada, descansaría sobre una cara.

Y desde luego, no es "esférico", como se refieren a él muchos comentaristas deportivos, ya que puede constituir el 85% del volumen de una esfera. Si añadiésemos más vértices y hexágonos lograríamos formas aún más esféricas. ¿El problema? Que todo eso encarece el coste de la pelotita y las marcas no pasan por ahí. Pero volvamos a ver de dónde sale que en todas las "esferas" hay 12 pentágonos:

Esto se demostró en el siglo XIX, a cargo del GENIAL matemático Leonard Euler, que relaciona el número de caras, vértices y aristas en un poliedro. Esta fórmula dice de manera muy simplificada que si v son los vértices, a las aristas y c las caras, siempre se cumple que:

v - a + c = 2   (v - e + f en inglés, mucho más extendida) 

Si un fullereno tiene p pentágonos y h hexágonos: 

- cada arista está compartida por dos caras: a = (5p + 6h)/2
- cada vértice está compartida por 3 caras: v = (5p + 6h)/3
- hay p + h caras: c=p+h

Y si aplicáis la fórmula de Euler, descubriréis que p=12.

Un problema similar surgió en los 80 en el ámbito de la química, cuando se estudiaba un molécula de carbono de 60 átomos, que formaba anillos de 5 y 6 átomos cada uno. Se sabía que el hueco de esta molécula era hueco. Y cuando se empezó a dibujar el fullereno como un balón de fútbol, al principio se le comenzó a llamar futboleno. Y ojo, que 3 señores recibieron el Nobel de Química en 1996 por el descubrimiento de esta estructura.




Más información

http://static.cs.brown.edu/courses/csci1950-h/soccerball_topology.pdf
 http://mathtourist.blogspot.com.es/2010/06/hexagons-pentagons-and-geodesic-domes.html
http://verne.elpais.com/verne/2015/09/11/articulo/1441988783_165642.html
http://blog.zacharyabel.com/tag/eulers-graph-formula/
https://math.stackexchange.com/questions/18340/why-are-there-12-pentagons-and-20-hexagons-on-a-soccer-ball
http://platea.pntic.mec.es/~aperez4/alcobendas/alcobendas.htm

Benjamin Robins, engranajes y disparos

La balística sufrió algunas revoluciones a lo largo de la historia, como la pólvora, la ciencia de materiales o técnicas de fabricación. Pero una de ellas la protagonizó un ingeniero militar: Benjamin Robins (1707-1751).

Según escribió una vez un oficial de artillería, Robins era a la artillería como el inmortal Newton lo era a la filosofía. Antes de su influencia, el acierto en el tiro era una cuestión de azar sujeta a múltiples variables e incertidumbres. Ese mismo siglo, el presidente de la Royal Society fue más allá y afirmó que Robins había inventado una ciencia nueva. (Ojo, que el estudio de lanzamiento de partículas en el aire data de tiempos de Aristóteles y otros muchos han habido en la mitad).

Robins ya era miembro de la Royal Society desde 1727, y afortunadamente, la grandeza de este personaje se notó enseguida. En 1742 publicó su obra, "Los nuevos principios de la artillería", el cual fue traducido al alemán por Leonard Euler (1707-1783), lo cual hizo que el trabajo de Robins no solo tuviera influencia en su patria, Gran Bretaña, sino por toda Europa. En este libro, Robins describía el invento por el que se le conoce: el péndulo balístico.

Robins se basaba en la mecánica newtoniana para calcular con su péndulo la velocidad de salida del cañón. Esencialmente, el invento consistía en disparar una bala contra la masa colgada del péndulo y calcular su arco. La masa del péndulo era bastante mayor que la de las balas de aquella época.


A los alumnos de Bachillerato, en clase de física se les enseña la trayectoria parabólica de una bola o una partícula en el aire. Pero en la artillería no sólo se tenía que tener en cuenta eso, sino también la presión en la cámara del cañón, cuánta se podía perder, la velocidad de la bola, su temperatura, y otros diversos factores. Robins para su péndulo realizó 13 proposiciones matemáticas, que se pueden leer aquí.

Pero todo evoluciona. El primer artilugio que sustituyó al péndulo balístico se desarrolló en 1808 durante las Guerras Napoleónicas. Su avance es que podía medir la velocidad del proyectil directamente a través de unos discos. Pero no fue el único adelanto:

La batalla de Jutland entre Gran Bretaña y Alemania se produjo en un mayo de hace 100 años, en plena WWI. Es importante destacar que fue una batalla naval. Los británicos resultaron vencedores. Por aquel entonces, estaba extendido que ellos eran los mejores en precisión de fuego en artillería.

Menos mal, ya que tras la batalla, se dieron cuenta de que solo acertaron en el blanco un 3% de todos los proyectiles de la Armada Real. Eso provocó un antes y un después en la actitud de los mandamases del ejército. ¿Ocurrió esto de la noche a la mañana?

No exactamente: hasta 1800, la mayoría de batallas navales se desarrollaban con un alcance de fuego de entre 20 y 45m. Pero durante el siglo XIX se desarrollaron naves más veloces, ágiles, y con más potentes disparos de artillería. Con tal alcance de proyectil, los enemigos tenían que alejarse entre ellos, y la táctica se transforma de "apuntar al objetivo" a "alcanzar el objetivo". Disparar desde un barco no es tarea fácil, ya que objetivo y arma se mueven, vibran, y con largas distancias hay que tener en cuenta ligeros efectos de Coriolis.

La falta de precisión fue el convencimiento definitivo de que se necesitaba ayuda para apuntar mejor: comenzaron a equiparse los barcos con máquinas calculadoras mecánicas. Los originarios ordenadores. Se trataba de rudimentarias calculadoras que permitían calcular de una manera más rápida que la manual, los simples modelos balísticos. El más extendido desde 1800 hasta la WWI, estaba influenciado por la escuela militar rusa y francesa. f(y,V) representa la resistencia aerodinámica en función de la velocidad, V.

Los ordenadores usados en esa época consistían esencialmente en engranajes que permitían calcular cosas muy sencillas. Pensemos que era esto o hacerlo a mano. Este tipo de tecnología se la debemos principalmente a Charles Babbage. Si pensamos en elementos mecánicos para cálculo no obstante, esto se remonta a Vitrubio, quien describe el uso de una rueda para el cálculo de un arco. Pero no nos vayamos tan lejos. En 1905 ya empezó a estar disponible el "ordenador" Argo, o el calculador de Frederic Dreyer, incorporado por la Armada Real Británica.


Incluso las tropas de a pie comenzaron a llevar tablas con ellos para mejorar los cálculos, como la finlandesa. El siguiente invento lo llamaron ellos Korjausmuunnin.


 

Sí, Coriolis, otra vez

Hay mucho mito y leyenda sobre el efecto que provoca el famoso Coriolis. No serán pocos los vídeos de YouTube que dicen que el sentido de giro del agua del baño se produce por este curioso efecto. Aunque Coriolis sea un efecto clásico en la divulgación científica, vamos a ver si dejamos claras en este blog las cosas principales:

Coriolis es un término que aparece en las fórmulas fundamentales de la Mecánica Clásica a lo largo del tema de cinemática del sólido rígido (SR). Si ese SR tiene una rotación sobre si mismo, se dice que la velocidad de un punto A de ese sólido es igual a la velocidad de un punto B + la velocidad de giro x la distancia entre A y B. Todo esto en expresiones vectoriales, claro.

Sin embargo, al derivar respecto al tiempo la velocidad para conseguir la aceleración, aparecen unos términos extra de manera automática. Ese término es Coriolis. Por lo tanto, no hay Coriolis sin rotación sobre un eje del propio SR. 

Coriolis es el responsable del sentido de giro de huracanes y tifones en un hemisferio y otro, tal y como se explicó en este blog aquí. Sin embargo, hay mucha incertidumbre sobre las historias de artillería y si Coriolis desviaba las balas de cañón que se lanzaban desde larga distancia hacia el objetivo. Pensadlo: una bala puede ir en línea recta, pero la Tierra bajo ella se va girando. ¿Realmente eso afecta en la balística?

Pues no hay ninguna evidencia de esas batallas donde se corrobore. Muchos alumnos han aprendido estas historias en la carrera, pero parece que son fruto de la cultura popular o un achacamiento de la imprecisión de los disparos a Coriolis. Cuando probablemente los fallos eran debidos a otros motivos.

El efecto Coriolis debe su nombre al ingeniero civil frances Gaspar Coriolis. Sin embargo, antes que él, ya lo estudió el genio de Laplace, quien era examiner de la Artillería Real Francesa por aquella época. Con datos del libro de Modern Exterior Ballistics, aparecen estas relaciones de distancias de tiro y desviaciones de balas de 7,62mm por efecto Coriolis

457m (500 yd):     0,15m
915m (1000 yd):   0,71m
1371m (1500 yd): 1,93m
1828m (2000 yd): 4m

Por afectar, afecta hasta en un disparo de penalty de fútbol. Lo que pasa es que ahí la masa del balón y la distancia que recorre es muy pequeña, pero se puede medir. ¿Queréis conocer un efecto a lo grande? ¡Pues hagamos un ensayo a lo grande!

En la WWI ya se impuso el uso de la aviación, y eso le restó mucha importancia a la infantería en los distintos ejércitos. Por lo tanto, los alemanes construyeron un super cañón (Paris Gun) para bombardear París desde el último territorio conquistado alemán. (Ojo, no confundir a este arma con La Gran Bertha, se trata de cañones diferentes). 

Se dispararan super cañones a París desde una distancia de 120 km, con una masa de proyectil de 94kg. Según los datos registrados, el disparo tuvo una gran desviación debida a Coriolis, y hay constancia de disparos que se quedaron cortos por 393 metros, y tuvo una desviación lateral de 1343m (fuente). En total se dispararon entre 320 y 367 proyectiles.




¿Por qué el Rover Curiosity es más lento que un caracol?

El cine nos ha infundido la idea de que cuando los alienígenas invadan la Tierra lo harán con super-máquinas. Cuando los humanos hemos comenzado a explorar otros planetas también lo hemos hecho con una increíble tecnología. Sin embargo el último que está posado sobre la superficie de Marte no vuela y es más lento que un caracol (en el sentido estricto de la palabra, velocidad media de 30m/h). Pero no es algo dejado al azar. Existen varias razones para ello:

La principal es el tipo de suspensión que lleva. En inglés se denomina rocker-bogie suspension, y su traducción podría ser suspensión bogie-balancín. En la siguiente imagen se ve perfectamente cómo es esta estructura:
 





Para seguir leyendo, puedes hacerlo a través de la página del Cuaderno de Cultura Científica de la Universidad del País Vasco, donde salió originalmente publicado el artículo.



En @MapIgnorance: system of quadrotors for the transportation of deformable linear objects

En mi última colaboración con el blog Mapping Ignorance hablé sobre un tipo de transporte de objetos con drones. Estamos acostumbrados a que un único drone transporte un único objeto, habitualmente rígido. ¿Pero qué ocurriría si intentáramos transportar un objeto deformable, como una cuerda, entre varios drones? El artículo comienza así:



Nowadays, the industry is centering their efforts on the development of single aerial robots carrying single objects, such as the widely-known drone of Amazon for delivering packages, which was followed by some national post-office services. However, other approaches go a step further and get to transport bigger objects in a cooperative way, reducing the payload of each drone and thus, increasing their battery duration. Besides, this cooperative transport might not only be used for retail services and packet deliveries, but for another completely different type of services and tasks.




Si quieres seguir leyendo el artículo sobre este aspecto, puedes hacerlo aquí. Mapping Ignorance es un blog realizado por investigadores de ciencia que transmiten los últimos avances de diversas disciplinas de una manera asequible. 

Un par de curiosidades del cuerpo humano, y su mecánica

No será por falta de ganas. Últimamente se me acumulan las tareas y me cuesta sacar tiempo para escribir en este blog. Pero por fin saco un hueco para hablar de algunas curiosidades sobre el cuerpo humano y su mecánica que me han llamado la atención. 

- ¿Qué cansa más: subir un tramo de escaleras rápido o despacio?
Si el tramo de peldaños elegido es el mismo para una y otra velocidad, el trabajo (designado por la letra W habitualmente en Mecánica Aplicada) es el mismo en los dos caso si suponemos que solo realizamos un cambio en la cota de alturas.

Sin embargo, la potencia no es la misma. En este caso, la P es la relación entre el trabajo, W, y el tiempo. Y dado que al correr invertimos menos tiempo, la potencia que tenemos que desarrollar es mayor al ir rápido y eso nos cansa.

No me he vuelto loco. Esta simple pregunta era la base para la siguiente: ¿si tardamos el mismo tiempo en subir unas escaleras, por qué nos cansa más subir los peldaños de dos en dos que de uno en uno? 
Según las fórmulas habituales de cinemática y dinámica en Mecánica Aplicada, no hay ninguna razón que demuestre esa fatiga. Teóricamente, no hemos generado más potencia, ya que el tiempo establecemos que es el mismo.

Me he encontrado varios hilos en Reddit a cuenta de esta cuestión (hilo1 e hilo2), entre otros lugares webs. Y en uno de ellos dan la solución a mi pregunta, y no es relativa a la ingeniería, sino a la fisiología: el gasto metabólico de los músculas al subir escalones de dos en dos es superior al de subir de uno en uno, y lo recogen en el artículo The metabolic and muscular differences between two stair-climbing strategies of young adults, y alegan que este extra de energía es por los extensores de rodillas y tobillos. En el abstract de hecho, recomiendan que subamos las escaleras de dos en dos a la hora de muscular las piernas. Una posible continuación de este artículo es éste otro.


Me parece que es una investigación relevante de cara a tratamientos médicos y musculares, pero no solo eso: también me parece que conocer esta serie de cosas puede venir bien para una futura modelización de robots humanoides que suban escaleras de dos en dos.

Y ahora viene la segunda píldora de ciencia del artículo, y es estudiar las razones del vaivén de los brazos durante el movimiento de las personas. He encontrado trabajos de investigación realizados en 1939 hablando sobre este curioso fenómeno, pero vayamos a un artículo de nuestros días, como Control and function of arm swing in human walking and running (de 2009). Este artículo habla de que el momento angular del movimiento humano está cercano al momento angular 0 (puede que algún otro día me centre en esto), y que el vaivén de los brazos ejerce de amortiguador (damper) en la rotación de hombros y pelvis.

 Y por eso, volviendo a los humanoides, no es de extrañar que las máquinas también requieran de ese curioso movimiento inconsciente para mantener su equilibrio o tener un buen control de su cadena cinemática. Por ejemplo, este artículo explica como gracias al movimiento de los brazos, su robot consigue que el centro de gravedad apenas se mueva. A continuación tenéis una imagen extraída de ese trabajo.





o este otro es uno de los muchos que dice que los brazos mejoran en gran medida la estabilidad de estos ingenios. 




Referencias aparecidas en este artículo
 M. Popovic, A. Hofmann and H. Herr, "Angular momentum regulation during human walking: biomechanics and control," Robotics and Automation, 2004. Proceedings. ICRA '04. 2004 IEEE International Conference on, 2004, pp. 2405-2411 Vol.3.
 T. Maneewarn and P. Sinsaranon, "Effect of swing arm during gait transition of a humanoid robot," ICCAS-SICE, 2009, Fukuoka, 2009, pp. 1222-1225.
 H. Pontzer, J. H. Holloway, 4th, D. A. Raichlen, D. E. Lieberman. "Control and function of arm swing in human walking and running".
Gottschall, J.S., Aghazarian, G.A., and Rorhbach, E.A. "The metabolic and muscular differences between two stair climbing strategies of young adults". Journal of Strength and Conditioning Research, 24:2558-2563, 2010.
Halsey, L. G., Watkins, D. A. R., & Duggan, B. M. (2012). "The Energy Expenditure of Stair Climbing One Step and Two Steps at a Time: Estimations from Measures of Heart Rate". PLoS ONE, 7(12),

Reseña de Rise of the Robots

Hace tiempo que tenía pendiente hacer la reseña de esta obra. Ha sido uno de los libros que más citados he visto en medios de comunicación y webs de todo el mundo (The Guardian, NYTimes, Wired, El Mundo, y más webs que cualquier usuario puede encontrar fácilmente.



Habla de el auge de la robótica y de la amenaza que supone frente a destrucción de puestos de trabajo. Sí, Martin Ford se centra más en qué tipo de puestos y qué sectores transformarán los robots. Cada uno de los capítulos del libro corresponde a un análisis del autor en un sector diferente: restauración y hostelería, transporte de mercancías y pasajeros, sanidad, derecho y educación, etc, y describe qué tipo de puestos o funciones en cada uno de ellos puede ser más vulnerable. No adelantaré conclusiones e ideas del libro para no hacer spoiler. Básicamente, los culpables de hacer desaparecer puestos de trabajo es la inteligencia artificial: la capacidad de pensar y organizar tareas tan bien como los humanos, o mejor.

De todas formas, Martin Ford también argumenta que puestos de trabajo se llevan destruyendo aproximadamente desde la década de los 70, por razones que nada tienen que ver con los robots. Hay que tener en cuenta que los países que eran básicamente fabricantes han pasado a ser eminimentemente de servicios; o que mucha producción se ha llevado al extranjero; o que antes para hacer el trabajo de varios hombres ahora se logra con uno por la mejora de las condiciones de trabajo, etc. Esta presentación en concreto me gustó mucho.

Se llevan extinguiendo puestos de trabajo desde hace mucho tiempo, pero parece que lo que se avecina es más impredecible y será capaz de destruir trabajos más rápidamente que en ningún momento de la historia. Y hará falta una legislación para que todo esto no se vaya de las manos probablemente, algo que casi ningún gobierno está contemplando con sus miradas cortoplacistas.

He leído otros libros que hablan del futuro del panorama laboral, como Humans Need Not Apply, the Jerry Kaplan, y me quedo claramente con Rise of the Robots por sus análisis mucho más profundos y mejor redacción.

Dejando a un lado ya la reseña, aprovecho para dejaros el link del mejor informe que ha habido hasta ahora sobre la influencia de robots en el empleo, realizado en 2013 por Oxford Martin School. Pronosticaba que el 47% de los empleos de Estados Unidos desaparecerían en los siguientes 30 años aproximadamente. Pero cada vez hay más críticas a este estudio, y voces autorizadas están diciendo que la robótica y la Inteligencia Artificial eliminará puestos de trabajo, sí. Pero creará otros tantos, y todavía no somos capaces de predecir cuáles. Una de las mejores fuentes sobre estos temas es International Federation of Robotics, que defiende lo que acabo de decir. Pero también Forbes, The Guardian, NYTimes,

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Web Hosting