-->

2015, un año de lectura

Al igual que ocurren en otros muchos blogs, y mejores que éste, os dejo la lista de los libros leídos durante este año. Ha sido menos prolífico que otros años, pero las obligaciones llamaban.



El agente ZigZag (
Lo elegí como un libro sobre historia militar, con la esperanza de que se describiera algún momento de la Guerra Mundial con el hilo conductor de una novela. Pero no cumplí esas expectativas. El libro es entretenido, la historia es curiosa, pero se me terminó haciendo un poco largo. El libro está salpicado por relaciones amorosas y relación del espía con sus superiores en ambos bandos..


El Reto Starbucks (Howard Schultz)
 Fruto de mi afición por el café, me regalaron el libro con la autobiografía de Howard Schultz, fundador de Starbucks. Es interesante, y a mí sí que me convenció sobre su pasión por la empresa. En general, el libro se trata de eso: el autor explica qué perseguía con cada acción estratégica y a dónde quería llegar con su marca, qué quería representar. Por supuesto, no se mete en asuntos fiscales escabrosos ni nada.


The theory that would not die (Sharon McGrayne)
Es un libro muy recomendable de leer que habla del uso e historia del Teorema de Bayes. Cómo durante años perdió su prestigio, cómo se usó para hallar submarinos rusos en la Segunda Guerra Mundial, aplicaciones de ahora en todo tipo de operaciones, etc. Muy bien contado, nada pesado.


Neurociencia para Julia (Xurxo Mariño)
A cualquier persona que quiera leer sobre el funcionamiento del cerebro, le recomiendo el libro del divulgador Xurxo Mariño. Xurxo es un neurofisiólogo y divulgador español de gran prestigio en España, y el libro describe la evolución del cerebro, su funcionamiento, relaciones con las células, experimentos científicos curiosos, etc. Un buen regalo para estas Navidades.


El sastre de Panamá (John le Carré)
 De nuevo elegí este libro por mi afición a las historias bélicas y novelas de espías. Pero me volvió a decepcionar un poco el libro. Debo de tener unos gustos atípicos. La obra fue llevada al cine en 2001 y es una obra muy conocida, así que dejo al lector que la descubra por sí mismo si le apetece.


Ronin (Francisco Narla)
Es un libro basada en la era samurái, una época fascinante de Japón para mucha gente. Francisco Narla es un piloto que además escribe buenos libros, y en esta novela cuenta un pasaje de la hstoria bastante desconocido: el paso de los samuráis con el imperio español en un momento de la historia.


Chaos (James Gleick)
Es un libro bastante científico. Describe la manera en la que se entendía el caos a lo largo de la ciencia, cómo se afrontó y cómo evolucionó la opinión de los científicos sobre él. Es un libro un poco árido, pero recomendable.


La ética del hacker (Pekka Himanen)
Es uno de los libros más amenos de este año. El autor describe la influencia del modo de pensar hacker en la sociedad. Es un libro que viene muy a cuento de las ideas que se oyen hoy en día (empoderamiento ciudanano). Pero una cosa que me gustó fue la descripción de la autoridad a partir de la religión. No es un libro de informática, sino que habla del espíritu hacker. No explico más, que voy a terminar estropeando el libro.


Yo, robot (Isaac Asimov)
Un libro clásico. Plantea a través de relatos muy cortos algunos problemas de obediencia de los robots a partir de las 3 leyes clásicas que presentó Asimov. Se lee en tres patadas, pero es un buen libro para releerlo. Es de Asimov.


Eurekas y Euforias (Walter Gratzel)
Libro con centenares de historias sobre curiosidades, anécdotas, experimentos y descubrimientos de científicos a lo largo de la historia. Toca el campo de la química, física, matemáticas, biología... Un libro que se puede abrir en cualquier página y que os enseñará mucho.


American Gods (Neil Gaiman)
Es un libro que me recomendó @InerciaCreativa. Nunca había leído nada sobre este autor, conocido por sus obras de SciFi. El libro es un poco lento en algunos momentos, y se hace un pelín largo, pero el final de la historia me impresionó. Un buen libro del género.


Humans Need not Apply (Jerry Kaplan)
Es un libro escrito por un profesor universitario en ciencia computacional y un emprendedor tecnológico con amplia experiencia. Habla de la influencia que puede tener la inteligencia artificial en la sociedad, en el trabajo, o en nuestras vidas. Da algunos ejemplos sobre la inteligencia artificial que ya hay en nuestras vidas y sobre todo, apoya sus datos en estudios económicos. Hay algunas cosas con las que no estuve de acuerdo, pero es un libro ligero sobre el tema. Un libro que profundiza un poco más en el tema y que estoy leyendo en estos momentos es The Rise of the Robots .


Mediohombre (Alberto Vázquez)
Es un  libro que me ha encantado. Relata como mi paisaino Blas de Lezo llevó a cabo una de las defensas militares más famosas de la historia: la defensa de Cartagena de Indias frente a los ingleses. Los británicos eran muy superiores en número y medios a los españoles, pero gracias a la estrategia y a otros factores, los españoles resistieron. Un libro muy bien contado. Otros hombres de mar muy famosos de mi tierra fueron Urdaneta o Elcano.


Mercedes y los gases fluorados

 La semana pasada se dio otra mala noticia para la industria automovilística alemana: la UE demanda a Alemania por el uso de gases prohibidos en coches de Mercedes, pero como siempre, lo mejor es acudir a la fuente de la noticia

El problema consiste en la utilización de gases fluorados, concretamente en el refrigerante R-134a que emplea el fabricante alemán, igual que han hecho otras marcas, como BMW o VW. La historia viene de atrás, tal y como atestigua unas palabras que compartí con @elbuhodelblog y que traigo hoy al blog:

La medida se refiere a que tras la prohibición (tratado de Montreal 1985) de los CFCs o clorofluorocarbonos (gases que se demostró eran los causantes de la desaparición de la capa de ozono y eran usados en sistemas de refrigeración), se sustituyeron estos por gases fluorados (pero sin cloro, que era el que se comía en la estratosfera el ozono). Posteriormente, estos también se han puesto en cuestión al demostrarse que tienen un efecto invernadero importante.

Los clorofluorocarburos se comenzaron a fabricar en masa porque fueron identificados como el perfecto refrigerante, un fluído que cambia rápidamente de gas a líquido y a la inversa, absorviendo y liberando grandes cantidades de calor en el proceso.
Así, podían circular en refrigeradores o aparatos de aire acondicionado para expulsar el calor (fuente). Según la directiva europea EU2006/40/EC, ningún coche podrá circular con el R-134a a partir de 2017. Mercedes Benz se ha negado a sustituir en sus coches uno de esos fluoruros por las alternativas que se proponen desde la UE, ya que alegaban que era inflamable.

Ojo, que la historia no es en absoluto antigua, y ya Daimler se las vio con el gobierno de Francia, y en esa ocasión ganó, incluso metiéndose en medio la Unión Europea, tal y como se puede seguir claramente en esta serie de artículos. Básicamente, los alemanes alegan que ellos han sido aprobados por un organismo alemán que les permite usar el R-134a. Según recoje la serie de artículos de MotorPasión, la alternativa presentada es el HFO-1234yf, que presentaba dudas sobre inflamabilidad. Por todo ello, los tribunales franceses dieron la razón a Mercedes ante esta duda sobre la seguridad del nuevo gas, pero parece que ha llegado para quedarse. Es unas 10 veces más caro al peso y parece que la UE persigue intereses comerciales e industriales por él, y prosigue su proceso de estandarización como nuevo refrigerante. Mercedes por su parte ya anunció que a partir de 2017 sustituiría el refrigerante, concretamente basado en CO2. 

Sin embargo, de momento el gobierno alemán sigue homologando vehículos que emplean el R134-a, por lo cual supongo que de ahí viene la nueva demanda de estos días.

Continuará...


 

Algunas reflexiones sobre el Open Source

Últimamente le puedo dedicar muy poco tiempo al blog por temas varios. Pero no quería dejar pasar la oportunidad de compartir unas reflexiones sobre Open Source, tras tener algunas experiencias con bastantes desarrolladores y gente de la industria en los últimos meses. La diferencia entre el software libre y el open source es pequeña, y reside en matices. Las opiniones que arrojaré en el artículo están dirigidas a los dos movimientos.

Sin ninguna duda, me parecen una gran idea, y se ha convertido en una herramienta imprescindible. Lo compruebo prácticamente todas las semanas, ya que consulto habitualmente código Github y soy usuario Linux, Scilab, Wordpress o Python. Creo que son una herramienta genial para aprender de manera autodidacta. Pero me encuentro con profesionales en la industria que rotundamente preferían un software comercial para sus fines profesionales, que uno libre. 

Pensemos en un simulador de robótica comercial y otro abierto. Obviamente, las ecuaciones que rigen el movimiento de un brazo robótica no cambian entre softwares, son las que son. Pero tal y como escuché hace poco, "probablemente el software comercial tenga más en mente al cliente".

Un software comercial implementa las ecuaciones, pero probablemente después haga un tratamiento de datos, los filtre, se asegure que el programa no "casque", que no dé fallos, y que la interfaz gráfica para interactuar con el programa sea agradable. Y todo eso está gestionado por un grupo controlado de personas, por un grupo pequeño.

En cambio, el open source consiste en dejar el código de tu programa en un repositorio, y que cualquier persona pueda acceder a él, y modificarlo. Esa posibilidad está dirigida a que la comunidad opine sobre tu trabajo, y sea capaz de mejorarlo. Al igual que en la Ciencia, los desarrolladores y usuarios de open source se apoyan en hombros de gigantes previos. Pero esto entraña en ocasiones incomodidades: podría darse la ocasión de que continuamente se estén realizando cambios y actualizaciones, lo que es una incomodidad para el cliente final. O que el equipo que modifica el programa no lo conozcas. O que no se pueda cuidar bien la interfaz con tanta actualización. 

Y por último, otro punto que se suele olvidar es quién gana dinero con el software libre. Actualmente, empresas que sean rentables usando solo esta herramienta son contadas, como RedHat, u OpenBravo. (¿Seguro?). Y hablo desde el desconocmiento, ¿pero puede el software libre eliminar puestos de trabajo? ¿Podría una empresa X usar el código Github de algunos programas para ahorrarse invertir en desarrollar su propio programa? En toda la comunidad que desarrolla librerías de Python, ¿quién gana finalmente dinero, si es que alguien lo hace?

Sobre por qué algunos prefieren sofware privativo sobre libre lo tengo medianamente claro. Sobre el último párrafo, solo tengo preguntas.




Actualización (4 diciembre 2015)

@mariusmonton a cuenta de estas líneas, recomienda la lectura de las siguientes referencias, ambas escritas por Richard Stallman, a cuenta de dudas y cuestiones que planteo en el artículo.

Why Open Source misses the point of Free Software
Why Free Software is better than Open Source

Por otro lado, he visto que un gran banco, BBVA, está en plena campaña de marketing, y entre otras cosas, publicita y hace alarde open source. Pero esa filosofía requiere más pruebas para que sean creíbles. Por ejemplo, a día de hoy no indica qué condiciones legales acepto por descargarme su libro de Open Source, por no hablar de las apps que tienen, cuyo código no está en ningún lado.



 

En @MapIgnorance: robot navigation on Mars

Three main incorporations of physical robots are forecasted in our lives: transport, assistance and factory robots. Design and requisites of these different kinds are quite different, but one particularly is attracting researchers’ efforts: navigation. While transport robotics is located outdoors, the rest two are indoors. Outdoors machines can make use of a GPS (among other instruments) to navigate, but indoor robotics cannot and require extra aids to position and orientate. Among these, visual odometry system is the most used one for wheeled robots.

However, visual odometry implies assuming navigation errors and knowing the exact position of the robot turns to be a very hard task. There are two kinds of errors:



Si quieres seguir leyendo el artículo sobre cómo se orienta y mueve el robot Curiosity en Marte, puedes hacerlo a través de Mapping Ignorance, donde salió originalmente publicado el artículo. Mapping Ignorance es un blog realizado por investigadores de ciencia que transmiten los últimos avances de diversas disciplinas de una manera asequible. Un orgullo haber colaborado.


Mi participación en Naukas15: errores al copiar la realidad

Ya hace algunos fines de semana que pasó el evento Naukas15, donde impartí la charla de aproximadamente 10 minutos que os dejo a continuación: errores al copiar la realidad.




No me dispongo a hacer un resumen del evento, que ya hace tiempo que ocurrió. Solo os recomiendo ver cualquiera de las charlas del canal de EITB en el que están colgadas

El evento de este año fue espectacular. Muchas gracias a todos con los que compartí algún rato, y lo siento a los que no pude atender en condiciones. Prometo seguir intentando mejorar mis actuaciones.






Coche autónomo: ¿modelo ascensor o avión?

Hace unos días se publicó que la tecnología de vehículos autónomos está en el pico máximo del ciclo Gartner sobre tecnologías emergentes.


Hay muchos debates entre los científicos y en la sociedad sobre la bondad de esta prometedora tecnología, y principalmente sobre dilemas éticos que se plantean en el caso que el robot tenga control absoluto durante la circulación. Pero este artículo va de otro tipo de dilema, sobre el cual Google parece que ya ha tomado una decisión.


Para seguir leyendo, puedes hacerlo a través de la página del Cuaderno de Cultura Científica de la Universidad del País Vasco, donde salió originalmente publicado el artículo.

¿Cómo diríais si este coche tiene neumáticos sobredimensionados?

Si alguien alguna vez os pregunta cuál sería la mejor manera de que un vehículo sobre ruedas reduzca su consumo de combustible, la respuesta inmediata debería ser: quitarle las ruedas.

Los neumáticos son una causa muy importante de consumo en los coches, camiones y motos. En este post nos centraremos en los coches. Los neumáticos tienen pérdidas por rozamiento, por histéresis, por desgaste, por sonido y alguna más que se me escapa. Son responsables de hasta el 20% del consumo, de ahí que veréis que en los sucesivos modelos eléctricos el ancho de los neumáticos va a ir reduciéndose.

Sin embargo, aún por la calle se ven coches mastodónticos de más de 2Tn con unas peazo gomas. Los neumáticos y las llantas tienen un posible efecto estétitco además del funcional, así que hace unos meses por Twitter consulté si los neumáticos del BMW X6 están sobredimensionados, cuya foto tenéis a continuación. Y esto es lo que me respondió el responsable del blog www.pistonudos.com, @GuilleAlfonsin, al respecto:



La respuesta se basa en la comparación entre el X6 y otro modelo de BMW mucho más pequeño (el Serie1).






La operación que hace @GuilleAlfonsin es muy sencilla: consiste en dividir los kg por eje entre el primer número de los neumáticos. Por ejemplo, 685kg por eje del BMW Serie1 entre 195 da como resultado 3,51kg/mm. Ese cociente debe ser entre 3,5 y 5. El X6 tiene un 4,12. Aquí la conversación de Twitter.

Por lo tanto, llegamos a la conclusión de que los neumáticos de ese coche no están sobredimensionados.



Tendencias en el negocio de la tecnología (digital)

Fred Wilson es un exitoso inversor norteamericano de capital riesgo, y que uno de los primeros en invertir en empresas como Twitter, Tumblr, Foursquare, Zynga, Kickstarter y Bitcoin. Navegando por la Red, me he encontrado un vídeo que me ha gustado en el blog de Jokin García, experto en inversion de start-ups.

En el vídeo, Wilson describe las tendencias del negocio de la tecnología digital en un plazo corto y medio, y las distintas maneras que se están creando de generar valor en este negocio. Es una persona muy dada a dar conferencias (las podéis encontrar muchas de ellas en YouTube) y también es el autor de un blog.

Como decía Niels Bohr, hacer predicciones es difícil, especialmente cuando hablamos del futuro. Pero Wilson ha demostrado ya bastante acierto, así que su opinión puede estar bastante próxima a la realidad.


Os recomiendo ver la charla. Para los que no queráis, tenéis un resumen un poco más desglosado de lo que dice en el citado blog de Jokin García


La ya tradición: se acerca Naukas Bilbao

Los habituales del blog sabréis que de vez en cuando saco el bombo y el platillo para anunciar alguno de los eventos en los que el escribe participa. 

Participo y asisto a algunos. Naukas Bilbao es sin duda la referencia, el evento de divulgación científica que más disfruto y uno de los que más aprendo. Para quien no conozca el formato de este encuentro, se trata de charlas de unos 10 minutos una detrás de otra sobre disciplinas científicas diversas: matemáticas, tecnología, cosmología, física de partículas, química, biología, etc.

El evento ya va por su quinta edición, y éste es el programa provisional para este año. Ojo, que en esta ocasión se adelanta en el calendario y pasa al 11 y 12 de septiembre en el Bizkai Aretoa de Bilbao.


Cada vez el evento goza de mayor éxito y yo disfruto mucho de compartir ideas, saludos y cervezas con público, divulgadores, curiosos y amigos.

Este año mi charla se denominará: Errores al copiar la realidad. Intento sorprender en cada edición y he hecho alguna demostración de inseguridad informática, he hablado de Formula1, del coche autónomo, y de momento no quiero adelantar en qué consistirá la de este año.

Quien pueda acercarse, que no pierda la oportunidad. Yo le pagaré el primer café o cerveza.

Pintando temperaturas

Recientemente tuve que hacer un viaje para realizar un estudio con una cámara termográfica, la cual es la responsable de hacer una fotografía donde se aprecian qué partes están más calientes y cuáles más frías (dicho de manera bastante incorrecta). Para los que veis Formula1, estoy hablando de cámaras así:


En la foto, claramente se ve que los neumáticos están muy calientes, mientras que la carrocería y restos de parte del motor apenas se colorean debido a la alta velocidad de los coches y su enfriamiento por convección.

Una cámara termográfica mide la radiación infrarroja emitida por un objeto. El hecho de que la radiación es una función de la temperatura superficial del objeto hace posible que la cámara termográfica pueda medir y mostrar esa temperatura. - See more at: http://www.nivelatermografia.net/blog/tecnicas-de-medicion-termografica-midiendo-la-emisividad/#sthash.YLHj05WY.dpuf
Una cámara térmica mide la radiación infrarroja emitida por un objeto. El hecho de que esa radiación sea una función de la temperatura, permite a la cámara poder calcular dichas temperaturas. Sin embargo, no es tan simple como sacar una foto y ya está. La razón es que la temperatura también depende del factor de emisividad del objeto (este factor se usa para calcular cuánta energía emite un cuerpo simplemente por el hecho de estar a una temperatura superior a 0K).

Y además también influye en la foto la humedad relativa del ambiente, la temperatura, la luz, y la distancia entre objeto y cámara. Por lo tanto, antes de realizar cada sesión de fotos en una cámara de estas características, se hace necesario compensar los efectos que he citado para obtener una foto en condiciones.

Sigamos con el texto, a ver si explico a dónde quiero llegar. A continuación os dejo una fotografía térmica realizada en la pared exterior de una casa reciente:


Esta casa tiene una capa fina que asemeja a la piedra. Esa parte está pintada en rojo-anaranjada. La temperatura ambiente es de 33ºC, y la cámara ha dibujado la imagen según una escala de temperaturas entre 35,3 y 25,4. La emisividad es 0,81 (emisividad de la mampostería). 

Lo que se ve en azul es la estructura interna de la casa, los forjados. Es decir, estamos consiguiendo ver formas que están tapadas, aspectos ocultos de un cuerpo. Y precisamente esto es uno de los aspectos interesantes de esta cámara.

Realizar una foto de una fachada con una cámara térmica no es baladí, y hay algunas directrices claras a tener en cuenta: 

- las 12 del mediodía de un día de verano en un sitio soleado es el peor momento. En situaciones así hay mucho sol, y su calor y energía distorsiona los resultados de la foto.
- Si realizamos la foto de una pared, se requiere que entre la pared interior y exterior haya un gradiente de temperaturas de 15º como mínimo, ya que si no la calidad de la foto es muy pobre.
- en las fotos conviene que haya objetos de varias temperaturas. Si todos tienen aproximadamente la misma temperatura, la foto será bastante mala. 

Eso último se ve precisamente en la siguiente foto. Se trata de una pared interior de una vivienda. La pared está pintada, como todas las viviendas. Aún así, fijaos que la cámara es capaz de mostrarnos los ladrillos y que hemos encuadrado en la imagen el hombro de una persona para que haya un mayor contraste:


Este tipo de herramientas es habitual para poder detectar en un edificio dónde está el trozo de cable o circuito defectuoso, o fugas de agua que haya detrás de alguna pared.

Siguiendo con el razonamiento de estas imágenes, acudí al Monasterio de Guadalupe (Extremadura) para comprobar si lo mismo que ocurre con las viviendas modernas se puede obtener con el patrimonio. Es decir, intentar captar con la cámara térmica detalles constructivos que hayan quedado tapados bajo reformas y capas de pintura en la pared a lo largo de los años. Este tipo de estudios no se ha realizado con mucha frecuencia en patrimonio.

Sin embargo, mi gozo en un pozo, y las conclusiones del modesto estudio es que la cámara térmica no es la herramienta más adecuada para este tipo de tareas. Os dejo un par de ejemplos donde sí que se aprecian detalles, pero mucho menos que en la vivienda. La razón es que las paredes son demasiado gruesas.










Para terminar, la cámara no tiene un aspecto convencional:

 

Poincaré y el caso Dreyfus

El título de este artículo bien podría haber sido Poincaré a lo Numbers, en honor a la célebre serie de misterios que los protagonistas resuelven con deducciones matemáticas. 

Henry Poincaré es uno de los matemáticos franceses más notables del siglo XX, y tuvo una especial repercusión en el caso Dreyfus (Dreyfus affair). Comenzó en 1894 y finalizó en 1906. Tuvo una gran repercusión en Francia, donde sucedió.

El joven capitán Albert Dreyfus fue detenido y acusado de alta traición y trabajar para el enemigo. Su acusador fue el general Alphonse Bertillon, cuya prueba principal era una carta supuestamente manuscrita por Dreyfus y encontrada en la embajada alemana. A este documento se le conoció como la bordereau. Al principio el pueblo creó firmemente en la culpabilidad de Dreyfus, principalmente porque era descendiente de judíos e hicieron mucha prisión los grupos antisemitas de Francia (fuente).

Se convocó a 3 expertos matemáticos para dar validez a la prueba pseudo-científica que elaboró Bertillon para asegurar que la bordereau fue escrita por Dreyfus. Acudieron al juicio Paul Appell, Gaston Darboux y Henri Poincaré. El último por entonces ya gozaba de una gran reputación internacional, y las conclusiones que redactó en un tono que no admitía contestación, zanjaron la polémica en torno a la autoría de la carta. A continuación, adjunto un extracto de traducción propia que Poincaré reflejó en alguna de sus cartas cuando le pedían la opinión sobre el sistema de Bertillon (fuente):

Bertillon afirma que ha encontrado 4 de 26 posibles coincidencias. Suponiendo que es 0,2 la probabilidad de encontrar una coincidencia aislada, Bertillon concluye que la probabilidad de encontrar 4 coincidencias es de 0,016. Falso. 0,016 sería la necesaria para encontrar 4 de 4 coincidencias, y en realidad, su cálculo debería ser de 0,7.


Y finalmente, lo que Poincaré entregó al tribunal fue una serie de preguntas y reflejo de incoherencias sobre el razonamiento de Bertillon. En mala calidad, se pueden ver las alegaciones en la siguiente imagen:


Una ampliación de ellas se puede ver en el artículo Bertillon and Galton. Probabilistic arguments related to identification of criminals.

Dreyfus fue salvado por simple aplicación del teorema de Bayes de la estadística, y otras simples reglas de la probabilidad.

Esta historia aparece mencionada en la obra The theory that would not die.

Imitar sin copiar la realidad

En los últimos años han ganado mucha fama los robots de Boston Dynamics, empresa estadounidense recientemente adquirida por Google.

Cada cierto tiempo nos sorprenden con un vídeo de su nuevo ingenio. En el siguiente vídeo están sus robots más famosos.


Sin embargo, en este artículo quería mencionar un pequeño detalle de uno de los últimos modelos, el cual ellos lo presentan como un robot-perro


Sin embargo, fijaos ahora en este vídeo a partir del 3:28.

¿No ha quedado claro de lo que hablo? Fijaos en este, más simpático, desde el comienzo.

¿Se ve? Los perros, sobre todo a velocidad lenta, mueven mucho la cadera columna vertebral lateralmente. Ahora mismo, Boston Dynamics usa como tronco del perro una caja rígida. Por lo tanto la biomecánica del perro la imitan, pero no la copian. No soy experto en esta rama de la ingeniería, pero probablemente, nuestras mascotas tampoco sean capaces de realizar movimientos del propio robot a la hora de mantener el equilibrio. Probablemente será una cuestión de compromiso en el diseño, y la manera más robusta que Boston Dynamics ha conseguido para que sus ingenios mantengan el equilibrio y hagan todas las actividades de las que son capaces.

Mi predicción será que la empresa tenderá a introducir esa cadera columna a sus ingenios. Ya la tienen muchos robots humanoides.


Más info:
http://www.bostondynamics.com/img/BigDog_Overview.pdf
http://www.bostondynamics.com/img/BigDog_IFAC_Apr-8-2008.pdf


Siempre es más eficiente darle vueltas al café

A los aficionados al café no nos suele gustar que los baristas y camareros aspiren a alcanzar con el café la temperatura de ebullición del acero. En todo caso, desde pequeño nos han dicho que para enfriar algo le demos vueltas con la cuchara o soplemos. Y realmente funciona, ¿pero cuál es la razón?

En pocas palabras: si no soplas, el café se enfriará por convección natural; si soplas o das vueltas, por convección forzada. La fórmula de energía disipida por convección es la siguiente:

Q= Área · Entalpía · (Diferencia de temperatura entre fluido y superficie).

Pensemos que el área es el área de la superficie líquida de nuestro café. La diferencia de temperaturas es la resta entre la temperatura del café y la temperatura del aire que le rodea (20ºC-25ºC en condiciones normales). ¿Dónde está la influencia del número de vueltas o el superchorro de aire? En la entalpía. 

La entalpía crece con la velocidad del aire, tal y como se demuestra en esta gáfrica (fuente).



La entalpía depende de más cosas también, como la temperatura del líquido, tipo de sustancia o viscosidad. Por lo tanto, salvo condiciones especiales, siempre es más eficiente soplar o dar vueltas, ya que estamos conseguiendo convección forzada por conseguir una velocidad relativa entre el café y el aire que le rodea.

Realmente, en todo proceso de transferencia de energía térmica hay convección, conducción e irradiación. Y aprovecharé la ocasión para explicar un termino no muy apropiado (tanto en inglés como en castellano): el suelo radiante.

El suelo radiante es un sistema de calefacción normalmente, y su mayor ventaja es la homogeneidad de temperaturas en toda la habitación. Sin embargo, por ser suelo radiante parece que funcione por radiación (que consiste en la transferencia térmica que tiene todo cuerpo simplemente por estar a una temperatura mayor que 0K). Y sí, hay radiación, en el suelo radiante, pero al igual que en una estufa, no es el proceso principal para la transferencia térmica. El suelo radiante sigue funcionando principalmente como convección, consistente en calentar la habitación mediante diferentes temepraturas y densidades del aire. De hecho, si hacéis números, en el mejor de los casos la radiación igualará la cantidad de energía que se transfiere por convección.  De hecho, la Wiki inglesa hace referencia a esta confusión del término

En convección natural, la radiación se tiene en cuenta, pero en convección forzada es tan superior a la radiación, que su aportación de energía se suele despreciar.


p.d1.: por cierto, no conviene quemar mucho la leche  ucho menos recalentarla, ya que entonces se quema la lactosa, responsable del dulzor dde esta sustancia.


p.d2: aunque queda un poco lejos, @carlcasan y @tgacebo aportaron su granito de arena al artículo

Sobre la seguridad de los robots industriales

Ayer un robot industrial en una fabrica de automoción de Alemania mató a un operario de la planta. Nadie puede opinar sobre qué pasó ahí exactamente, ya que está siendo investigado por las autoridades y a su tiempo comunicarán las conclusiones del estudio. Sin embargo, este tipo de noticias alimenta un debate social sobre la seguridad de los robots y su potencial para eliminar puestos de trabajos.

El debate me parece sano, pero en este artículo de blog quiero aportar mis dos céntimos para limitar un poco el grado de exageración de la discusión y que nadie diga tonterías.

SEGURIDAD

Los robots industriales tuvieron una gran penetración en el mercado sobre todo a partir de los 70, a pesar de que ya se habían desarrollado antes. Los pioneros en introducirlos masivamente en sus fábricas fueron los japoneses. Esas máquinas no son unos robots humanoides, sino que más bien se asemejan a esto:




Como se puede comprobar, se trata de brazos robóticos y en su extremo final pueden tener una herramienta u otra (siguen la norma ISO 8373). Las funciones de estos robots suelen ser: soldadura, pintura, transporte de objetos, o ayudar a los operarios a levantar pesos. De hecho, aquí aparecen los 5 robots más típicos actualmente en automoción. Quien piense que estos robots se están paseando por las fábricas, es que no conoce ninguna. La particularidad de estos es que están previamente programados para hacer su función. Toda la producción está sincronizada: en el instante x, una parte del coche tiene que estar colocado y orientado exactamente como lo necesita el robot para que todo salga bien.

Pensemos en un robot soldador: el robot está preprogramado para realizar soldaduras cíclicamente y retirarse en un punto exacto. Si la parte del coche correspondiente no está bien colocada, el robot sigue haciendo la soldadura, pero en un punto que no es el que es, mientras que un poco más adelante probablemente haya otro robot que está realizando en el instante programado la función correspondiente. Toda la producción y la factoría funcionan como un gran reloj perfectamente engrasado, y de ahí que parar una fábrica de automoción es una de las peores pesadillas de los empresarios, ya que no se trata solo de que los trabajadores dejan de trabajar.

¿Tienen los robots fuerza suficiente como para matar a una persona? Claro. Una rápida producción implica movimientos rápidos y sincronizados, y eso supone que estos brazos robóticos se mueven sobre sus grados de libertad a gran velocidad, a lo que hay que sumar su alta inercia. Hay varias medidas de seguridad para evitar que los robots tengan cualquier accidente con humanos (salas aisladas, pulsadores, sensores de proximidad, etc).

En general, la aparición de accidentes en estos entornos es muy pequeña, ya que las medidas de seguridad son muy grandes y las funciones planeadas para los robots son muy pequeñas. Por supuesto, a los robots descrito yo les considero totalmente estúpidos: si no tienen programación, no trabajan. Si no existiesen estos robots, los coches saldrían más caros y probablemente con más imprecisiones.


EMPLEO

En la historia ha habido eliminación de puestos de trabajo por máquinas desde hace mucho tiempo. Pensemos en los semáforos, por ejemplo, que evitaron que los guardias tuvieran que hacer el control de tráfico. Sin embargo, tal y como comentaba hace poco con @milhaud, lo que se viene encima a medio plazo es más grande. No es solo una máquina, sino una "capacidad de pensar" para algunas máquinas, automatización de procesos, etc, y no sabemos todavía cómo será.

Hay grandes investigadores científicos que opinan que esta inteligencia artificial sí que eliminará puestos de trabajo, y otros que no. La relación entre número de robots y desempleo no es lineal, y como prueba el siguiente gráfico, donde se ve que Alemania tiene muchos más robots que España, y sin embargo en la industria tiene mucho menos paro (fuente).


De hecho, a continuación os dejo 6 ejemplos de tasa de desempleo en el sector (azul) vs nº de robots (rojo) en 6 países distintos (fuente):


 O por ejemplo, según la misma organización, cuántos trabajos en los siguientes países no existirían solo en el sector de la automoción si no hubieran robots: 


 Sé que sobre empleo no he llegado a ninguna conclusión. Ni puedo. Pero quería también mostrar de qué cifras normalmente no se dan.

¡A debatir!

Pint of Science, mi participación

El pasado miércoles tuve la ocasión de impartir una pequeña charla en el marco del evento Pint of Science, del que no conocía nada y me he llevado una grata impresión. Pint of Science nació en Reino Unido como iniciativa de unos investigadores que abrieron sus laboratorios para la gente de la calle, para que pudieran ver el trabajo que ellos estaban realizando. Y eso finalmente derivó en que los investigadores comenzaron a explicar sus trabajos en pubs de manera cercana para todo el mundo.

A pesar de los orígenes de la idea, Pint of Science se ha extendido a varios países europeos, y entre ellos el nuestro. Tenéis toda la información en su página global http://pintofscience.com/.
En mi caso, pude dar pequeña charla en el restaurante Ni Neu, sito junto al Kursaal en San Sebastian. Mi charla, anunciada en esta página, se titulaba Conexiones inseguras y robo de cuentas

Las diapositivas de la charla las tenéis a continuación.




En la charla realizamos una pequeña prueba de concepto y demostré ante el público cómo se puede conseguir el usuario y contraseña de una cuenta de correo si tanto el atacante como la víctima están conectadas a la misma red WiFi. Es decir, es un alegato frente a confianzas de los usuarios en redes de Internet públicas.

Para saber cuáles son las IPs locales de la red WiFi, empleé la app gratuita de Android, Fing, altamente recomendable para los que os gustan estas cosas. El ataque lo realicé haciendo un Man In The Middle entre el router y la víctima, y posteriormente, ejecutando el ataque SSLStrip, creado en 2009 por Morlinspike.

El MITM permite que el tráfico que genera la víctima pase antes por por el servidor web que quiere consultar. Y el ataque SSLStrip es imprescindible, ya que en este caso, la cuenta de correo contaba con certificado SSL. Es decir, su dirección url está acompañada de https, lo cual cifra todos los datos que se intercambian entre víctima y servidor web. ¿Siempre? Bueno, no, según cómo esté implementado el certificado SSL, SSLStrip funciona todavia a pesar de ser una herramienta relativamente antigua. La distribución Kali Linux que empleé en la demo facilita muchísimo las cosas.

La prueba de concepto en directo realizada no pretendía enseñar al público cómo se roban credenciales, sino concienciar sobre lo fácil que se pueden conseguir esos datos si no andamos con cuidado en WiFis públicas.

El ataque bien explicado aparece en muchos vídeos de la Red. Éste por ejemplo me gusta por la claridad con la que está explicado:





La charla tuvo una gran acogida entre el público, así que intentaré seguir haciendo pequeñas pruebas siempre que me sea posible. Desde aquí, gracias a los asistentes y al equipo de Pint Of Science Donostia.


Podrás hablar por Whatsapp, pero...

Este mismo mes muchos medios digitales se hicieron eco de la nueva funcionalidad de Whatsapp de realizar llamadas. Al principio esta posibilidad no se extendió a todos los usuarios, y el entorno en el que yo me movía estaba muy decepcionado por ello. Era algo que yo no entendía. 

Whatsapp permite las llamadas a otros usuarios que tengan la aplicación mediante VoIP. Es decir, es gratis, pero consumes datos de tu tarifa móvil o tienes que depender de una red WiFi para poder llamar. ¿Dónde está la novedad? Han aparecido mucho antes otras aplicaciones famosas que permitían exactamente esto, como Viber, Line, o el propio Skype. Y fijaros cuántos datos consume cada app.

Una amiga y un familiar probaron entusiasmados las llamadas y ambos me dijeron que "por Whatsapp, las llamadas se escuchan mal". Es lo normal, y de eso va el artículo que estáis leyendo ahora mismo.

La alternativa a VoIP es usar la infraestructura de telefonía "tradicional", a la cual se le denomina PSTN (Public Switched Telephone Network, o Red Telefónica Conmutada). VoIP es Voice over IP, Voz sobre IP. Cada uno tiene sus ventajas y sus inconvenientes. 

La mayor ventaja de PSTN es su estabilidad y fiabilidad, mientras que la de VoIP es la conectividad, la eliminación de cables, el precio, la escalabilidad de la red y la facilidad de ofrecer servicios extra de telefonía (lista negra de llamadas, desvíos, reconocimiento de emisor, etc. En la PSTN normalmente esto hay que pagarlo).

Precisamente es la estabilidad de lo que se quejaban mis allegados. La razón principal es que el sistema VoIP tiene que enviar la voz del emisor en paquetes al receptor, y eso obliga a manipular los paquetes de datos y puede perder calidad. Ese manipulado se refiere a pasar los datos por algoritmos de compresión de paquetes.

El problema es que necesitamos de un aparato relativamente potente para que la pérdida de QoS (Quality of Service) no sea muy grande (como el G729a) o tener mucho ancho de banda con un aparato no tan complejo (fuente).

De hecho, es esta calidad de servicio lo que ha hecho a Skype triunfar durante tanto tiempo. Esta compañía usa un algoritmo propio para su tratamiento de voz y consiste de varios pasos (el cual fue publicado en 2011) y su proceso se puede ver en esta página.

No todos los algoritmos de compresión de voz en IP son igual de buenos. Aunque tal y como vemos en esta antigua foto, el número de pérdida de paquetes de voz en una llamada de VoIP se está reduciendo.





Sin embargo, las llamadas por VoIP terminarán extendiéndose mucho más que ahora, sobre todo debido a la proliferación de apps de móviles capaces de realizarlas y al incremento de velocidades de navegación que tenemos a nuestro alcance.


Más información


http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6148783
http://www.sans.org/reading-room/whitepapers/voip/latency-qos-voice-ip-1349
http://searchunifiedcommunications.techtarget.com/feature/PSTN-vs-VoIP-Whats-best-for-your-business
http://www.networkworld.com/article/2226769/uc-voip/replacing-the-pstn-with-voip--not-if--but-when.html
http://www.mytechlogy.com/IT-blogs/722/voip-vs-pstn-the-pros-and-cons/#.VTEQf_CQnuc
http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6221101
http://www.webopedia.com/DidYouKnow/Internet/VoIP_POTS_Difference_Between.asp

http://cp.literature.agilent.com/litweb/pdf/5988-9345EN.pdf

Accidente con KERS

Hace unas semanas los espacios deportivos eran un hervidero de rumores frente al extraño accidente de Fernando Alonso en los tests de Montmeló. Las causas todavía no están muy claras, y como consecuencia se están generando una gran cantidad de teorías sobre las causas. Unos amigos me preguntaban si una de esas teorías podía ser cierta. La teoría en cuestión es si el KERS es capaz de dar un descarga eléctrica suficiente para dejar al piloto inconsciente.

Mi respuesta fue que yo no me creía para nada ese rumor, pero me acordé de este vídeo que rescaté en su momento. Data de 2008, donde había un KERS y no lo que hay ahora (MGU-K y MGU-H). Pero eran los comienzos del KERS y se puede ver qué le ocurre al desprevenido mecánico de BMW Williams:


Según declaró BMW, claro que el KERS es capaz de matar a una persona, ya que maneja 400 V y 800 A de corriente continua. Y más información interesante al respecto, también aquí y aquí.

Explícame cómo se hackea el WiFi

Sí, el término habitual es hackear WiFi, a pesar de que la palabra hacker esté siendo tan denostada. En este artículo, voy a intentar explicar qué hace una de las herramientas más típicas para nuestro propósito. Este software se llama AirCrack, y es un programa desarrollado por el especialista de seguridad, Christoph Devine.

Si probáis a poner en YouTube el término de búsqueda "hackear WiFi" os van a aparecer miles de vídeos de demostración donde se ve paso a paso cómo se utiliza AirCrack, y sobre todo en Linux. En este artículo yo voy a limitarme a explicar qué ocurre con el protocolo WEP, y antes de continuar, recuerdo que el hackear una red WiFi sin consentimiento de su propietario está tipificado como delito.

WEP (Wired Equivalent Privacy) fue el primer protocolo de encriptación introducido en el primer estándar IEEE 802.11 allá por 1999, y no fue creado por expertos en seguridad o criptografía. Su cifrado funciona de la siguiente manera (extraído de aquí):


Y el paquete que se emite es este:


donde cada celda corresponde a los siguientes puntos:

  • Cabecera 802.11: contendrá información relativa al tipo de paquete, las direcciones MAC del emisor y receptor del mensaje y determinada información de sincronismo.
  • Vector de inicialización (IV): es la clave dinámica generada por el emisor y utilizada para concatenar con la clave estática dando origen a la semilla RC4. Como se puede observar esta secuencia de bits crítica para preservar correctamente la privacidad de los datos viaja por la red sin ningún tipo de cifrado.
  • Datos encriptados: el mensaje que se desea transmitir de manera segura desde un nodo emisor a un nodo receptor.
  • CRC encriptado: código de redundancia cíclica correspondiente al mensaje que se va a transmitir.
  • CRC del paquete: código de redundancia cíclica correspondiente al paquete completo. El CRC, dicho de manera simple, es el checksum para comprobar la integridad del mensaje. Este sistema era muy bueno para detectar ruido en transmisión de señales, pero deja un poco que desear en su nueva misión de cifrado, y mejores alternativas son MD5 o SHA-1

Han aparecido numerosas variantes para atacar el cifrado WEP, pero la original y más extendida es la basada en el RC4. El RC4 es un sistema de cifrado creado en 1987. Fue tratado como alto secreto, hasta que un anónimo coló en una lista de correo en 1994 cómo funcionaba, y ya en 1995 publicaron la primera vulnerabilidad.

Si miramos el cuadro de cifrado WEP, el RC4 crea una cadena de 64 bits, 40 de las cuales corresponden a la clave estática, y 24 al vector de inicialización (IV). Esta clave estática es la contraseña que anhelan los que intentan hackear la red WiFi en cuestión. Sin embargo, tal y como se ve en el cuadro, el IV es transmitido sin cifrado en el paquete final, y este es el pilar sobre el que se fundamenta el ataque. La razón es que el atacante puede capturar estos paquetes sin ningún problema. 3 bytes corresponden al IV y el resto es mensaje cifrado.

El vector IV al ser de 24 bits solo puede estar formado mediante 16 millones de combinaciones posibles, y el objetivo que persigue es cifrar con claves diferentes para así intentar impedir que un atacante pueda recopilar tráfico suficiente para poder deducir la contraseña. Sin embargo, el WEP no especifica cómo varía el vector de inicialización, quedando en manos de los fabricantes la decisión sobre este aspecto.

La consecuencia de esto es que buena parte de las implementaciones optan por una solución sencilla: cada vez que arranca la tarjeta de red, se fija el IV a 0 y se incrementa en 1 para cada trama. Y esto ocasiona que las primeras combinaciones de IVs y clave secreta se repitan muy frecuentemente. Más aún si tenemos en cuenta que cada estación utiliza la misma clave secreta, por lo que las tramas con igual clave se multiplican en el medio (fuente).

Al ser el número de combinaciones posibles tan reducido, incluso en el mejor de los casos, incluso eligiendo un vector al azar hay un 50% de posibilades que el IV se repita con menos de 5000 paquetes (la paradoja del cumpleaños). Y aquí está el meollo del asunto, ya que probablemente lo que ocurra es que usemos el mismo vector de inicialización para cifrar el mismo mensaje. Esto es lo inaceptable (y eso que Microsoft lo volvió a usar en 2005 con el Word).

Por si fuera poca la vulnerabilidad de que el IV sea cíclico, el RC4 tampoco se queda corto. En su implementación en el cifrado WEP, se ha visto que el RC4 genera claves más débiles que otras. "Claves débiles" significa que la correlación entre el input y el output del cifrado tienen más correlación y parecido de lo conveniente. Por lo tanto, es sencillo capturar unos 9000 paquetes, quedarnos con aquellos que sugieran una "clave débil" y probar con unas pocas contraseñas.

Los ataques WEP tuvieron una mejoría muy sustancial cuando se descubrió cómo el atacante podía inyectar paquetes nuevos en el sistema: con este sistema, la fuente se veía obligada a generar paquetes más rápidamente, ya que los paquetes falsos eran aceptados sin ningún problema.

El primer ataque basado en reventar WEP basado en la debilidad RC4 es de 2001, y se denomina FMS en honor a sus autores Scott Fluhrer, Itsik Mantin y Adi Shamir. Sin embargo, rara vez se usa el ataque exactamente en la forma que lo describieron ellos.

Desde entonces, han aparecido muchas variantes (como el KoreK, el PTW, y algunos con nombres tan atractivos como café latte) y herramientas como el Aircrack implementan estas vulnerabilidades fácilmente. Las variantes de ataques pueden ser distintas metodologías de descubrir la clave estática con el menor número de paquetes a partir de la debilidad IV y RC4 descrita aquí. No es baladí la matemática que emplean para el común de los mortales, sino que usan muchas funciones lógicas y matemáticas propias de criptografía. Pero es capaz de implementarse en un software sin mucho esfuerzo y lo único que se precisa para atacar es una red que genere bastante tráfico y estar bastante cerca del punto de acceso a atacar.

Lo explicado en este artículo está lleno de simplificaciones, y dejo al lector multitud de textos sobre el tema para profundizar. El cifrado WEP tiene más vulnerabilidades que las que aquí he descrito (aquí aparecen explicadas de manera sencilla las principales), y definitivamente se ha relegado a un cifrado de uso doméstico y muerto para los que nos tomamos la seguridad en serio.







Encrypt Your Wireless Traffic to Avoid Getting Hacked
- Understanding WEP weaknesses
- Distintos ataques WEP
- What's wrong with WEP
- What's the deal with RC4?
- Artículo que describe matemática el ataque FMS, KoreK y PTW
- Cracking WiFi WEP with aircrack-ng
- Interpretación de qué hace un software línea a línea
- Seguridad WiFi (historia y descripción de problemas, en ESP)
- Explicación de debilidades WEP desde el punto de vista de criptografía
- Cómo no funciona el WEP


Si los Formula1 fueran robots

El lector habitual del blog sabrá de mi afición a la Formula1, cuya edición número 66 ha comenzado hoy en Australia. El post de hoy viene a colación de tal acontecimiento, y ahí va la pregunta:

¿Qué criterio emplean los pilotos de F1 para trazar las curvas? ¿Van por el trazado más corto para recorrer una vuelta completa? ¿O circulan por el trazado que les permite ir siempre a la máxima velocidad posible? 

Si vemos las siguientes imágenes, parece que el trazado a) es mejor que el b), ya que realiza giros con más sentido común y sin cambios bruscos de trayectoria. Sin embargo, puede que no sea la mejor solución.




Como datos de partida, diremos que todos los equipos tienen el mismo criterio y que este es aplicable no sólo a la máxima competición del motor, sino a cualquier otra modalidad que consista en vueltas periódicas al mismo dibujo. Y la respuesta es única.

En la disciplina ingenieril de teoría de control, la respuesta a la pregunta la da el principio del Mínimo de Pontryagrin, que busca los parámetros de control óptimos en cada instante para que el tiempo de una acción sea mínimo. Y esa es la respuesta a la pregunta: los F1 recorren el trazado que les permite dar la vuelta en menos tiempo

No deseo entrar en los detalles de programación de este control en programas de simulación. El problema de que sistemas dinámicos vayan de un estado A a otro B ha sido estudiado con profundidad a lo largo de los últimos años, pero ahora está un poco más de moda por el boom de coches autónomos. Apostaría en que Audi, para realizar el récord de circuito que consiguió hace unos meses, empleó el principio de Pontryagrin, entre otras herramientas. El coche estaba programado para dar la vuelta perfecta y llevaba las instrucciones grabadas: donde un ser humano no tiene la precisión suficiente para ir siempre al máximo del rendimiento de la máquina, una máquina no tiene problema.

Solucionar este problema del Principio del Mínimo de Pontryagrin no es baladí, y todo parte de un modelo matemático que reproduzca de manera fiable el comportamiento de un coche. Pero después, el control no se reduce a dar la orden "siempre gas a fondo" y listo. No. 

Hay que ir con gas a fondo siempre que se pueda, pero hay restricciones físicas inviolables en el caso que estemos hablando de vehículos que realizan maniobras extremas. Hay que programar la función de control del coche para las siguientes condiciones:

- si nuestro coche tiene que durar X vueltas, no podemos ir al máximo en todas las vueltas, sino al máximo para llegar casi casi sin gasolina a la meta al final.

- no podemos ir tan rápido que el coche en curva tenga peligro de volcar por exceso de aceleración lateral.

- un correcto trazado en curva se basa en un punto de frenado tardío, una buena tracción y una entrada bien dirigida en curva. Todo eso no se reduce a "gas a fondo".

y un sinfín más de condiciones, como cuidado de neumáticos, aprovechamiento de la aerodinámica, etc. Todo esto lo estoy asumiendo para un coche que circula en solitario por un circuito. Incluir otros competidores en la pista complicaría mil veces el problema.

La aplicación de este principio está verde, pero se plantea como opción de control para vehículos híbridos de calle y hace tiempo que ya existen patentes que se basan en este principio (esta de 2005). En robótica experimental, ya es una realidad.

A quién le guste salsear, puede obtener información de teoría de control sobre cómo se resolvía este problema anterioridad en las curvas de Dubins, o las de Reeds y Sheep.





Fuente

La pregunta Naukas 2015

En la plataforma de divulgación Naukas se están publicando a lo largo de este mes las respuestas a la una pregunta que nos han planteado a todos los autores que estamos ahí metidos. Ninguno sabemos lo que responden los demás hasta que no se publica. Se trata de una iniciativa que Naukas comenzó el año pasado en honor a The Verge. Probablemente, mejor que yo lo expliquen ellos mismos aquí:



Este año la pregunta era: 

¿Qué avance o descubrimiento de la ciencia moderna ha hecho progresar más a la Humanidad?

Entendemos como ciencia moderna desde Copérnico hasta nuestros días.




No consigo decidirme por qué invento ha sido más determinante. Me vienen a la cabeza el avión, la máquina de vapor, los rayos X o la tecnología espacial.

Sin embargo, sí que creo que hay un factor común a la hora de dar pasos grandes en la ciencia. No solo en la ciencia moderna, sino desde tiempos de nuestros más antiguos antepasados: en la mayoría de los grandes avances, la actitud humana que más ha permitido desarrollar importantes tecnologías ha sido el ser conscientes que tenían algo peligroso en sus manos, y aún así, seguir profundizando en su estudio.

¿Acaso creemos que el dominio del fuego en la Antigüedad ocurrió sin más contratiempos? ¿No es el fuego una de los fenómenos más peligrosos y a la vez más valiosos, de los primeros hombres? ¿No prohíben ahora las madres a sus hijos pequeños que no jueguen con fuego? ¿No es esta actitud una de las características fundamentales que distingue a seres humanos y animales?

Algunos de los inventos que costó miles de vidas incorporarlas de manera segura a nuestro día a día han sido el avión, la máquina de vapor, los rayos X o la tecnología espacial.

De cara al futuro, será imprescindible hacer frente a retos que nos pueden parecer igual de arriesgados. Hoy en día hay detractores de la inteligencia artificial, los alimentos transgénicos, la investigación de células madre, mecánica cuántica, viajes espaciales más largos, etc. Estos detractores critican o la inutilidad de inversión de recursos de estas disciplinas o la peligrosidad de su desarrollo para la sociedad.

Quizás dentro de algunos siglos estemos hablando de los nuevos medios de transporte, terapias genéticas, curas médicas o incluso formas de vida diferentes a la nuestra como consecuencia de haber afrontado hoy los peligros y obstáculos que presentan las ciencias y oportunidades de mi penúltimo párrafo.

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Web Hosting