-->

Science as a vocation

Max Weber fue un sociólogo, economista y político de los siglos XIX y XX. A pesar de que las disciplinas a las que se dedicó fueron varios, logró ser relevante en prácticamente todas ellas. Participó en momentos históricos muy importantes. Por ejemplo, fue asesor de la delegación alemana en el Tratado de Versalles tras la Gran Guerra. 

Debido a su formación y participación en múltiples campos, hoy es recordado como el padre de las ciencias sociales modernas. Cerca del final de su vida, en 1918, Max Weber fue invitado a impartir una serie de conferencias en la universidad Ludwig-Maximilians de Munich, con el objetivo de transmitir a los estudiantes el mensaje de la carrera intelectual, como profesión y como vocación, geistige Arbeit als Beruf.

Uno de los discursos de esa serie de conferencias fue Science as a vocation, el cual se ha convertido en un discurso referencia entre los que intentamos fomentar este tipo de entusiasmos. A continuación resumo alguna de las ideas principales del discurso. Una de las múltiples traducciones al inglés que circulan por Internet está aquí.


Básicamente, el discurso se divide en dos partes. En la primera, Weber habla sobre la propia naturaleza del trabajo lingüístico: habla de las paradojas de la carrera científica, como que ser un gran líder y ser un gran profesor no es lo mismo, ya que los alumnos en muchas ocasiones se fijan más en la actuación del docente que de su contenido. O también, que la carrera está directamente marcada por el catedrático o jefe de departamento asignado, que a menudo acostumbran a tomar decisiones un tanto ilógicas, como ascender al segundo o tercer posicionado y no al mejor.

En la segunda parte, Weber asemeja el trabajo del científico con el del artista. Es decir, un artista no puede desarrollar su trabajo sin sentimiento, sin pensar en su trabajo más allá de lo estrictamente estipulado en la jornada laboral; ama su obra. Y algo así le tiene que impulsar al científico.

Me resulta un poco largo de ser más detallado en su contenido y creo que no lograría transmitir correctamente sus ideas principales en este artículo, así que invito al lector a hacer lo mismo que yo, y leerlo. Si buscáis en la Red, enseguida os daréis cuenta de su gran importancia.

Sin embargo, este no es el único discurso destacado en la historia de la ciencia, sino que otro que es ampliamente recordado es el del llamado Ingeniero de la Guerra, Vannebar Bush. Este era un ingeniero norteamericano, muy influyente en la Segunda Guerra Mundial, que en 1945 escribió un famoso informe titulado, Science, the endless frontier. De este trabajo ya se habló en este blog hace un tiempo.

Creo que una buena manera de terminar el año y coger fuerzas y reafirmarme en 2015 que este blog (hecho de manera libre y voluntaria) merece la pena seguir haciéndolo, es leer uno o los dos trabajos que os dejo en este artículo.

¡Feliz Año!

2014, un año de lectura

Como viene siendo tradicional, os dejo con la lista y opiniones de las obras que he tenido la oportunidad de leer durante este año:


Este libro reconozco que lo dejé a medias. Se trata de una serie de capítulos del Sherlock Holmes japonés. Parece que el autor se inspiró en este personaje inglés para crear un personaje así, pero nipón. El libro es entretenido, pero todos los capítulos son distintas aventuras del detective que en mi opinión, no son tan distintas una de la otra, por lo que dejé de leerlo. El estilo es ameno, y la descripción de la sociedad japonesa es pormenorizada. Habla de clases sociales, sobre todo.


Libro técnico. Habla sobre la historia y desarrollo de la Mecánica Aplicada. Es bastante árido. Refleja con bastante claridad la evolución desde los clásicos griegos, pasando por Descartes y Newton, hasta ver que la relatividad cambió todo.


Es un libro repaso de la historia, desde las antiguas civilizaciones, que ha permitido llegar hasta nuestros días con Occidente como mayor exponente  del poder mundial... de momento. Habla de las razones demográficas, de clima, de guerras... de una manera bastante detallada. Es un libro árido. De momento, lo dejé sin terminar. Creo que en su momento buscaba otra cosa, pero lo retomaré.


Un clásico de la criptografía (novela). En el enlace que os he dejado os hablarán mejor de él, pero a mí me decepcionó un poco.


Es un libro con el que Alejandro Ramos y Rodrigo Yepes debutan como escritores. Es un tipo de libro que jamás había leído: es un manual técnico hecho novela. El libro tiene una lectura muy ligera y desde el punto de vista técnico, riguroso. Se requiere un mínimo de conocimientos de seguridad informática para seguir bien el libro.


En Naukas os hemos hablado mucho de este libro. No defrauda. Píldoras de ciencia de temas variopintos. Los artículos son los mejores que han ido apareciendo en esta plataforma web desde su origen. No cuento con un artículo mío entre ellos, pero el libro merece la pena.


Seguro que hay sitios mucho mejores que este para realizar una opinión válida sobre esta gran obra. Me ha gustado, pero el ritmo es demasiado lento.


Se trata de una obra a cargo del gran divulgador @edocet, que ha sido posible gracias a @ecosdelfuturo. El título habla por sí mismo. Libro ameno, riguroso y que lo haya escrito este señor habla por sí mismo.


Es uno de los imprescindibles de este año. Sagan no me ha defraudado. Sobre todo es un libro que habla de las supersticiones y pensamientos erróneos. Una obra maestra


Un libro que habla sobre el grado de simulación que hemos obtenido del cerebro humano, bastante técnico y divulgativo. Hay capítulos centrados en la fisiología del cerebro, las neuronas, etc, y otros que hablan sobre la tecnología propiamente. Ameno.


Os remito a esta crítica del tuitero @rpla. La comparto al 100%.


Un libro que explica cómo el contáiner para el transporte ha llegado a dominar el mundo del envío de mercancías. Es largo y bastante árido. Lo dejé a medias porque no era lo que buscaba. Se centra mucho en la historia detallada de cómo se llegó a este estándar.


Novela basada en hechos reales con parte de ficción. Había escuchado buenas críticas de este autor, y merece la pena.


Todo el mundo asciende en una organización hasta alcanzar su nivel de incompetencia. Con esta frase, el autor va discurriendo diversos argumentos que avalan esta tesis. Es un ensayo, pero un poco repetitivo.


Es un libro que me recomendó @jralonso3. Realmente, es un libro brillante. Habla de los casos que se ha encontrado en su vida profesional un abogado alemán. Algunas parecen de ciencia ficción, pero no lo son. Lo lees sin darte cuenta.


La historia del hacking español. Es una recopilación de las épocas que ha tenido nuestra geografía: a qué actividades se dedicaban, luchas de poder, mayores hazañas, etc. La historia está muy bien escrita, pero quizás demasiado detallada para mi gusto.


Es un ensayo en el que el autor argumenta desde distintos puntos de vista cómo se logró forjar una opinión en la sociedad inglesa hacia las clases más bajas. Es un buen libro, aunque al final se vuelve un poco repetitivo. Se lee fácil


Es un libro de divulgación de estructuras. Válido para gente conocedor de esta ciencia y para curiosos. Realmente se lee muy fácil y tiene flashes de historia y ejemplos que ayudan a dejar claros muchos conceptos difíciles de explicar con fórmulas


No conocía el libro y he escuchado que ha arrasado en ventas. Es una trilogía fantástica. Este es el primer tomo de la historia. Es un poco distinta a la aventura fantástica a la que estoy acostumbrado y la acción transcurre a distintos ritmos a lo largo de la historia. Es bastante largo, en ocasiones se hace pesado, pero leeré las siguientes partes.


El árbol de la ciencia
Este fue un libro que me recomendó @edocet. Describe las vivencias de un médico de pueblo y los ambientes, gentes y problemas que se encuentra. Echo en falta más acción durante el libro, pero las discusiones filosóficas entre el protagonista y su tío son muy recomendables.


Un libro imprescindible para los amantes de la seguridad informática. Relata en forma de novela los pasos que siguió un informático de un centro de astronomía para perseguir a un hacker a partir de un error en la contabilidad de 50 cents, hasta descubrir una trama que involucraba a la CIA, a espías alemanes y más organizaciones.


Es un libro ganador del Pulitzer. Habla a través de la historia cómo en muy poco tiempo el petróleo se ha convertido en el eje de la economía y del progreso de los países. Es sorprendente ver cómo han llegado hasta nuestros días algunas alianzas y el gran peso que tuvo en conflictos bélicos como las guerras mundiales. Es el libro que tengo ahora mismo entre manos.






A quien le haya entusiasmado la lista de 2014, puede pasarse por aquí a ver la de 2013.

¿Cuántos satélites hacen falta para geoposicionar un objeto?

Si preguntáis a alguien de vuestro entorno cuántos satélites GPS son necesarios para geoposicionar vuestra posición en el mapa, lo más probable es que os responda que 3, y que la posición se obtiene a través de la triangulación (no triangularización, eso se hace con matrices). Los satélites que están en el espacio envían señales electromagnéticas al receptor que podáis llevar en vuestro coche o teléfono móvil. Funcionaría así:

- el satélite A dice que estáis a 500km de un punto X (creáis una circunferencia con centro en X)
- el satélite B afirma que estáis a 300km de otro punto Y (a continuación, realizáis otra circunferencia con centro en Y y ese radio). Ahora mismo las circunferencias intersectan en 2 puntos.
- el satélite C dice que la distancia es de 400 km del punto Z. (gracias a esta última tercera circunferencia, sabéis en cuál de lo dos puntos anteriores estáis).

De hecho, un satélite no dice circunferencias en el plano, sino esferas en el espacio, por lo que todo lo dicho con las señales A, B y C habría que hacerlo con esferas, y 3 esferas en el espacio intersectan en 2 puntos, tal y como aparece en la imagen un poco más abajo.

Bien, todo lo anterior sería cierto si tanto los satélites como el receptor de la señal estuviesen perfectamente sincronizados... y no lo están. Los satélites sí que incorporan relojes atómicos perfectamente sincronizados y muy estables, pero cada uno de ellos cuesta entre 50.000 y 100.000$. Nos crearían una ruina si todos los receptores de GPS tuvieran que llevar ese reloj. Afortunadamente, los diseñadores de este sistema llegaron a una solución económica y muy ingeniosa, basada en la incorporación de un cuarto satélite para localizarnos completamente en un mapa.



Un receptor calcula la distancia a la que se encuentra de un satélite en concreto midiendo el tiempo que ha tardado en llegar la señal, y dado que la velocidad de esa señal es la de la luz, un error de 1 milésima de segundo puede dar lugar a un error geográfico de más de 300 km. El receptor que tenéis en el móvil o coche lleva un reloj de cuarzo probablemente, ¿Qué ocurre entonces? Tres esferas, aunque incorrectas, van a intersectar sin problemas en dos puntos. El cuarto satélite nos sacará de dudas de en cuál de esos dos puntos tenemos que fijarnos, pero esas 4 esferas incorrectas no intersectarán exactamente en un único punto. Todas las distancias serán proporcionalmente incorrectas. Vuestro reloj de cuarzo lo sabe, y lo que hace es calcular un único factor que restándoselo a todos los satélites, daría una posición exacta: la interesección exacta de esas 4 circunferencias.

Esa información de cálculo la proporcionan los datos llamados almanaque y efemérides. Estos datos son continuamente enviados por los satélites GPS y el receptor los almacena.

El almanaque contiene información sobre qué satélites son visibles en cada instante. Sin embargo, este dato no es suficiente para calcular la corrección de la señal de posicionamiento. El almanaque se recibe aproximadamente cada 15 minutos.

El dato definitivo lo proporciona la efemérides, que arroja la información precisa sobre las órbitas de los satélites, el cual no es un dato particularmente complejo. El dato se actualiza cada 2 horas y tiene una validez en el tiempo de unas 4.



Fuentes ampliadas
1, 2, 34 y 5

Cuando los coches te conocen tan bien como tu madre

Recientemente apareció en los medios especializados, como este, la incorporación de un sistema inteligente al último modelo de Jaguar Land Rover que aprende tus hábitos. Hay un vídeo bastante recomendable y corto que permite entender a qué se refiere el fabricante de coches.


No cabe duda de que Jaguar habrá hecho una estimación del impacto, buen funcionamiento y robustez de este sistema (esto último es difícil de conseguir). Además, sería recomendable realizar un estudio sobre el impacto de la atención a la carretera que gana o pierde el conductor. Pero bueno, no nos meteremos en estos aspectos.

El artículo de hoy pretende explicar qué subyace bajo esta tecnología, y no es ni más ni menos que las redes neuronales y los grafos. Las redes neuronales son una herramienta de la inteligencia artificial y se emplean para modelar funciones o procesos de un montón de datos de entrada desconocidos. Son capaces de detectar patrones cognitivos o repeticiones de procesos aleatorios, de ahí que se empleen mucho en la rama machine-learning (aprendizaje de máquinas).

No pretendo entrar en profundidad en el tratamiento matemático y resolución de este tipo de sistemas, pero puede que un gráfico así me ayude a explicarme (y que la he sacado de esta página):


Esto es un grafo, y es una representación de redes neuronales. Se usan muchísimo y es muy conocido el problema de los puentes de Könisberg. Pero el enfoque de este artículo es distinto. 

Fijémonos en la imagen de arriba y pensemos que A (el nodo de arriba) soy yo. El coche me ha reconocido y detectado que he montado en el coche. A partir de ahora, registrará todos mis hábitos y los grabará. Desde A puede llegar a varias opciones por distintos caminos. Esto podría ser como: 

- Yo, el coche, he identificado quién se ha montado. El camino a) representa que nada más montar, arrancamos el coche.
- el camino b) representa que montamos en el coche, encendemos la radio y arrancamos
- el camino c) indica que lo primero es encender el GPS.
- etc.

¿Cuál es el proceso? Cuando yo haya montado unas cuantas veces en el coche, éste habrá grabado en el grafo todos mis hábitos, y les habrá dado un peso. Al final, mis hábitos más repetidos serán los que más peso tengan (por ahí el flujo del grafo es más probable que pase -> hay más probabilidades de que si el coche me ofrece el camino b) acierte, si ha grabado que he elegido el camino b) el 72% de las veces).

Cuántas más variables incluyamos en el grafo, más difícil será su resolución y que el coche acierte con nuestros hábitos al volante. Hay toda una rama de resolución de grafos para ello, normalmente llamado "problema de colorear el grafo". La resolución no es tan simple como elegir la opción más usada por el usuario al volante, sino que varios caminos de los grafos pueden llevar al mismo nodo, o al revés.

Obviamente, esto no solo ocurre con coches, sino que también es aplicable a webs de compras, por ejemplo.


Tungsteno y errores sobre la historia

A menudo empleamos como sinónimos el material y elemento químico tungsteno de la misma manera que wolframio. Siendo estrictos y tal y como cuentan en este blog, el nombre actual científico otorgado por la IUPAC es tungsteno, así que emplearé este término en este artículo.

Durante la Segunda Guerra Mundial, uno de los muchos vericuetos de su desarrollo que inclinó la balanza a un lado y a otro en distintos momentos, fue que los nazis vieron al tungsteno como un material estratégico, mientras que los Aliados lo veían como una sustancia que impedía obtener hierro más puro. Resulta paradójico que a través de empresas con dueños alemanes, los nazis se hicieran a principios de 1900 con varias minas que estaban en el sur de Inglaterra.

El tungsteno es un recurso escaso. Algunas de las minas principales estaban en la Península Ibérica, en China y Japón. Es un material muy interesante, ya que tiene el punto de fusión y ebullición más alto de la naturaleza, además de ser un material muy duro.

Y aquí es donde viene el pequeño error histórico, ya que según un importante medio español (e incluso la BBC lo deja un poco ambiguo) los nazis usaban el tungsteno para blindar sus tanques. El medio español ha metido la pata varias veces (1, 2 y 3), pero hay otros sitios que también lo han hecho.

No es cierto, ya que la aplicación real del tungsteno era el de fabricación de metal-duro y el refuerzo de las balas. El metal-duro es una sustancia que gracias a sus buenas propiedades térmicas, de dureza y desgaste, permite mecanizar piezas metálicas mucho más rápido que los aceros tradicionales. Gracias al metal-duro, los nazis producían tanques muy rápido.

Y la otra razón es para reforzar las balas y obuses, que sí que eran capaces de atravesar tanques.


El hard metal (metal duro en castellano) es esencialmente granos de carburo de tungsteno embebidos en una matriz de una aleación de Fe-Co. Por otro lado, el refuerzo de munición se obtiene por su elevada densidad. El tungsteno sí que se mezcla con el acero, pero en muy pequeñas cantidades. De lo contrario, lo puede volver muy frágil.



Cuando los Aliados cortaron el suministro de este material desde Inglaterra, los nazis se centraron en extraerlo y transportarlo desde Galicia, y precisamente estos días se ha anunciado una película que conmemora esos hechos. También ocurrieron anécdotas curiosas, como que los alemanes se confundían y compraban piedras.  

Cada vez más cerca del coche fantástico

Es una noticia de hace unas semanas, pero dada la temática del blog y mi interés por el tema, no puedo dejar pasar la ocasión de incorporar a este blog el vídeo sobre la vuelta del Audi RS7 autónomo al circuito de Hockenheim el pasado 20 de octubre. Al coche lo han bautizado como Bobby.



Completó una vuelta al trazado alemán en un poco más de dos minutos. Y tardó un poco menos de lo que los ingenieros de Audi públicamente declaraban (2:10). Queda lejos del récord establecido por Kimmi Raikkönen en este circuito (1:13), pero aún así, la marca de Ingolstadt ha reclamado el récord de velocidad de vehículos autónomos

El evento tuvo más éxito del esperado incluso por la propia marca, ya que en momentos de la carrera el servidor de la señal que retransmitía las imágenes cayó por la avalancha de curiosos que se conectaron. Todo esto culminó una investigación de 15 años, lo cual demuestra que los tiempos en tecnología son largos, y que una marca que se ponga en este momento a apostar por la conducción autónoma sin aliarse con compañías experimentadas, puede estar fuera del mercado si todo esto prospera.

Éste es otro vídeo sobre los últimos hitos de este vehículo, que ya estuvo inmerso en el tráfico de la ciudad y corrió en Utah.



Está claro que el desafío se hizo en condiciones muy controladas. Es mucho más fácil (en mi opinión) desarrollar un vehículo autónomo que circule a alta velocidad por una pista como Hockenheim, que meterlo en la ciudad o en un circuito de rallye donde hay mucha más incertidumbre, desconocimiento del terreno, etc.

Sin embargo, me quedo con el detalle de que al contrario que el coche de Google, este Audi no tiene el LIDAR en el techo. El fabricante alemán parece que ha conseguido abaratar la tecnología de visión artificial, aunque no puedo asegurar que haga exactamente lo mismo que Google. Ibeo Automotive es el responsable de este cambio, y vale la pena echarle un vistazo, ya que el alto precio del LIDAR hace inviable la masificación de estas máquinas.




Pero la patente del vehículo autónomo se la ha llevado Google. Realmente, esa patente lo que hace es especificar el modo de transición de vehículo con conductor a vehículo autónomo. Sin embargo, ahora la guerra no está en ese tipo de patentes, sino que todo el mundo se ha dado cuenta de que coches autónomos equivale a tráfico de millones de datos. Y ahí están las gigantes tecnológicas intentando hacerse con el mercado, mientras que GM y otros intentan impedírselo.

La ética del coche autónomo

De todas las discusiones de ciencia que me he encontrado últimamente, ésta es la que más interés ha suscitado. Se trata del artículo a cargo de Patrick Lin, donde se cuestionaba la ética del coche autónomo (artículo original).

El dilema versa así: si el coche autónomo fuera a toda la velocidad, y se viera frente a la posibilidad de chocarse contra un coche grande o un coche pequeño, ¿con cuál decidiría impactar, si el coche estuviese programado para minimizar el daño? ¿Es esto una situación improbable? Bueno, no tanto. Es muy común que en carreteras de nuestro país (y más en Estados Unidos) salten a la carretera animales salvajes. Los humanos reaccionan instintivamente, pero un coche autónomo responderá según cómo esté programado. Y hay que dar respuesta a estas situaciones extremas.

Además, no es tan simple. En el caso anterior, el coche debería chocarse contra el vehículo más grande para proteger la vida de su propio ocupante. ¿Pero y si el impacto fuera inminente contra dos motoristas: uno que va sin casco y otro que sí que lo lleva? En esta ocasión, la situación más favorable no afecta al ocupante del coche. ¿Pero entonces todos los motoristas dejarán de llevar casco para evitar que sean la preferencia de este robot?



Lo más probable parece ser que los programadores necesitarán diseñar funciones coste, donde se estudie toda la situación y se elija la que minimice los daños humanos. El coche autónomo no debe de comportarse como lo haría una persona, sino mejor. De hecho, esa fue la razón que esgrimió Sebastian Thrun (director del Google Car) para embarcarse en el proyecto. Recordemos que aproximadamente un tercio de los accidentes tienen como causa concurrente las distracciones al volante, fallos humanos evitables. Hace un año, responsables del Google Car anunciaban que efectivamente, su coche tenía habilidades de conducción mejoradas frente a las humanas. Es decir, el coche autónomo no debería ser simplemente capaz de pasar un examen práctico de coche tradicional, ya que en esos 20 minutos es habitual que no nos encontremos toda la casuística de situaciones de tráfico. Pero también deberían de ser capaces de desobedecer las normas en caso necesario, como en la conducción durante una emergencia. Pero ojo, que también el coche falla, tal y como recogió el blog Jalopnik allá por 2011, donde denunció que el coche de Google se chocó con otros 5.

Otro problema filosófico habitual es el llamado dilema del tranvía (trolley problem), propuesto por los filósofos Philippa Foot y Judith Jarvis Thomson. Me llama la atención que no se conciba esto problema para los numerosos trenes autónomos que ya circulan por el mundo.

No se han acabado los quebraderos de cabeza que arrojan los vehículos del futuro, ya que existiría la posibilidad hasta de que el coche eligiera la opción que mata a su propio ocupante. Todo esta casuística hace necesario no solo programar la máquina teniendo en cuenta estas situaciones de extremo, sino que debe estar respaldada por leyes y políticas. Eso permitirá que las aseguradoras duerman un poco más tranquilas, ya que ahora en caso de accidente ¿quién es el responsable? ¿el conductor, el fabricante del vehículo, el programador?

Pero vamos a darle otra vuelta de tuerca a esto: la tecnología V2V cada vez está más cerca (comunicación entre vehículos). Entonces, en todos los escenarios que he descrito en este artículo, hay que tener en cuenta que el robot ha de decidir en milisegundos, pero además, ponerse de acuerdo con los robots de alrededor, donde cada robot tiene un dueño diferente. ¿Y puede un ordenador mentir al otro para proteger a su dueño? ¿Se puede hackear su ética a nuestro favor?

No tiene desperdicio esta interesante conversación de Twitter con @carlcasan y @ramoneeza sobre el tema

Driverless cars edge onto roadways
When should your driverless car from Google be allowed to kill you
Insurers worry driverless cars are ‘existential threat’
An ethical dilemma: When robot cars must kill, who should pick the victim?

Post participativo: ¿Quién es?

Volvemos a este tipo de artículos donde os propongo algunas pistas. En esta ocasión, se trata de adivinar un personaje histórico:

- Todo alumno de ingeniería ha oído hablar de él

- Más que por la ciencia, fue famoso por su interpretación de los jeroglíficos.

- Una propiedad de la materia lleva su nombre.

- Realizó sus trabajos con sangre


Como siempre, no publicaré los comentarios hasta pasados unos días. ¡Suerte!



Naukas Bilbao 2014: ¿Cómo funciona el coche de Google?

En esta entrada os dejo mi participación en el ya tradicional evento, Naukas Bilbao. El éxito de asistencia fue muy grande, el nivel de las charlas fue muy alto, y en mi opinión el público disfrutó de la ciencia.

Os animo a ver el resto de charlas en el canal de la televisión autonómica vasca, EITB.







Las conexiones de Internet en vacaciones

Si sois como yo, probablemente al llegar a un nuevo destino de vacaciones lo primero que hagáis sea comprobar si hay red WiFi en el lugar. En algunos sitios, es posible que hasta la conexión sea de pago a precio de barril de Brent, pero en otros no. Estas son algunas de las alternativas que nos podemos encontrar para las conexiones gratuitas:



Lo primero y más importante es saber el tipo de protección que tiene la red. Puede ser red abierta, cifrado WEP o WPA. Red abierta significa que nos podemos conectar a ella sin necesidad de contraseña y puede acceder cualquiera. Sin embargo, en WEP hay que introducir una clave que normalmente la proporcionará el hotel. Es una manera por la que el hotel se asegura que solo sus huéspedes tienen la clave necesaria. Sin embargo, tanto la red abierta como la red WEP tienen el problema de que no cifran el tráfico que va a través de su conexión, por lo que cualquier persona que esté conectado a la WiFi con un sniffer (un programita al alcance de todo el mundo) puede capturar datos sensibles de nuestras sesiones de navegación, tal y como se contó hace tiempo en una charla Naukas

Es posible que la red aparentemente esté abierta, pero que al abrir el navegador de nuestro móvil/portátil nos redirija a una página donde nos pida clave y usuario, tal y como aparece en la imagen:




Se trata de un portal captivo, pero normalmente no aumenta la seguridad. Normalmente sirve para que firmemos un contrato de buen uso de la red WiFi y estemos advertidos por el hotel de que no la liemos. Aún así, esta sesión sigue siendo visible para cualquier sniffer. ¿Qué es lo más seguro entonces?

Sin ninguna duda, lo mejor es optar por una red WPA siempre que sea posible, ya que este tipo de redes nos piden una contraseña para conectarnos y además el tráfico está cifrado, de manera que ningún hacker es capaz de interpretar nuestros datos de navegación. Bueno, esto no es del todo cierto, ya que mediante técnicas como man-in-the-middle alguien experto en informática sí que puede datos de páginas web que no envíen sus datos encriptados.

Aún así, siempre hay que estar muy atento si nos conectamos en redes de las que no conocemos sus dueños, tal y como expliqué en este artículo.

He escuchado algún comentario este verano sobre pueblos o ciudades pequeñas que ofrecen WiFi público en la calle como reclamo. Sin embargo, es conveniente saber que hay que cumplir ciertas reglas para que una red así sea legal. Concretamente, la Circular 1/2010 de la Comisión del Mercado de las Telecomunicaciones (absorbida recientemente por la Comisión Nacional de la Competencia), regula las condiciones de explotación de redes y la prestación de servicios de comunicaciones electrónicas por las Administraciones Públicas (enlace BOE).

Además, cuidado, que quizás conectarte a Internet puede exigirte el número de teléfono o que sepan en todo momento por dónde pisas




Este es un artículo un poco modificado del que salió originalmente publicado en Zientzia Kaiera

En Naukas: la manejabilidad de los carritos de supermercado

Os dejo mi última aportación en la plataforma Naukas. Gracias por los comentarios recibidos y la aceptación en Menéame.



Un alto porcentaje responsable de la maniobrabilidad de un vehículo y de su agilidad está en las ruedas y las suspensiones. Las ruedas no pueden estar totalmente perpendiculares respecto al suelo, sino que tienen una ligera inclinación denominada camber. Ya se habló en Naukas de que el buen manejo de este ángulo era clave en la época en la que Sebastian Vettel arrasaba. Pero hay más ángulos que afectan a la dirección del vehículo, y en este artículo pretendo hablar del ángulo de avance, o caster en la lengua de Shakespeare.

En todos nuestros coches, las direcciones son mecatrónicas. Es decir, hay elementos mecánicos que se unen entre ellos. El ángulo de avance es el ángulo que forma el eje de la dirección con una recta perpendicular al suelo que pasa por el centro de contacto del neumático. Pero ojo, el caster se ve desde el perfil del coche, tal y como se ve en la siguiente imagen:



La vista frontal sería así, pero el ángulo que se ve no es el ángulo de avance, sino el ángulo de kingpin.



El ángulo de avance es el responsable del par de autocentrado de las ruedas: cuando estamos conduciendo un coche, al tomar una curva el coche tiende a volver a enderezar la dirección de las ruedas hacia delante. ¿Por qué ocurre esto? En primer lugar, un neumático cuando gira está sometido a una fuerza lateral en el mismo sentido hacia el que giramos, es decir, siempre sentido exterior. Y si idealizamos el neumático, esa fuerza se da en el centro de la zona de contacto.

En segundo lugar, el caster si es positivo cae detrás de esa zona de contacto. Por lo tanto, la fuerza lateral crea un momento respecto al eje de la dirección que hace que la rueda se enderece. En inglés se denomina self aligning torque.



Los diseñadores de coches tienen que decidir cuánta información sobre la carretera transmite la dirección, y este concepto es uno de los principales. Es particularmente sensible en vehículos de competición, tal y como se puede comprobar aquí.

El carrito del supermercado también sigue este criterio, y si no lo creéis, fijaos en la siguiente foto:




En esta entrada colaboraron @CarlCasan y @GuilleAlfonsin, grandes amantes de la ingeniería

A la caza del submarino amarillo

Este verano, me contaron que para muchos estudiantes de ingeniería hace unos cuantos años era un clásico un problema teórico de matemáticas en el que se trataba de cazar un submarino, ya sea amarillo o no. Un ejemplo es el siguiente enunciado, extraído de esta web.

El submarino se encuentra bajo la superficie del mar y hay dos barcos caza submarinos en la superficie que intenta localizar la posición del submarino para darles la posición del submarino a un avión amigo que intercepte al submarino y le lance unas cargas explosivas para hundirlo. En un momento determinado, los dos caza submarinos, U y V se encuentran en las posiciones (10,0,0) y (0,25,0)  respectivamente, tal y como se muestra en la figura.

Las coordenadas están expresadas en millas náuticas. La nave U localiza al submarino en dirección del vector 4i-6j-2k. Y la nave V lo localiza en dirección 10i-6j-k. Hace 4 minutos el submarino se encontraba en las coordenadas (10,-5,-10), el avión llegara a la zona en veinte minutos. El submarino se está moviendo en línea recta a velocidad constante.

¿Qué posición y dirección deben reportar las naves de la superficie al piloto del avión para que este intercepte al submarino?

El problema gráficamente se puede plantear de la siguiente manera:


Y se trata de descubrir un punto de intersección. Es un problema a resolver mediante ecuaciones paramétricas. Un problema sencillo. Para no aburrir, dejo a los lectores que intenten el problema y comprobar la solución en la web. Existen varias variantes de este problema, como éste.

La razón subyacente para plantear este tipo de problemas seguramente esté en la batalla del Atlántico, donde los barcos Aliados de la 2ª Guerra Mundial se afanaban por hundir los U-Boats alemanes en una de las campañas militares clave de esta época. Y aunque parezca mentira, se dedicaron muchos esfuerzos a las matemáticas. Hay varias razones:

- El océano es grande, ¿dónde hay más posibilidades de encontrar U-boats?

- Los Aliados contaban con dos máquinas Enigma, y a menudo conocían la ruta de los submarinos. ¿Cómo interceptarlos?

- Trayectorias de torpedos y cómo escapar de ellos.


He encontrado en Internet un tipo de problemas denominados chasing-escaping problems que consisten en enunciados de trayectorias de misiles, maniobras en el mar para acorralar a un objetivo, etc. Un libro que habla de esto es Chases and Escapes: the Mathematics of pursuit and evasion.

Aunque a los alumnos les parezca aburrido, el teorema de probabilidad de Bayes tuvo una gran influencia en todo esto como sistema de búsqueda de submarinos. En el libro The theory that would not die, se cuenta cómo el teorema de Bayes hundió a los submarinos rusos en la Guerra Fría, sirvió para resolver el código Enigma de los alemanes y muchas otras ideas.

No sólo Bayes, sino que hay muchas más ramas de las matemáticas que permitieron planear una estrategia en un combate, tal y como se recoge en la recomendable obra Differential Games: A Mathematical Theory with Applications to Warfare and Pursuit, Control and Optimization.



Esta entrada participa en la edición 5.6 del Carnaval de Matemáticas, alojada en el blog www.cifrasyteclas.com por el gran divulgador, David Orden.



El artículo original salió publicado en el blog de la Escuela Politécnica de San Sebastián


¿Cómo se programa un algoritmo inspirado en la naturaleza?

Existen múltiples ejemplos de algoritmos que sirven para resolver sistemas de ecuaciones e inecuaciones. De esa manera, se pueden encontrar las raíces de un sistema, su punto máximo y mínimo, extremos, puntos concretos que busquemos, etc. Una de las grandes ventajas de nuestro tiempo es que los ordenadores nos ayudan a ejecutar esos algoritmos de manera automática y mucho más rápido que haciéndolos a mano.

Por ejemplo, uno de los más corrientes que todo alumno de ingeniería aprende durante la carrera es el algoritmo de Newton-Raphson, que sirve para hallar la raíz de una ecuación. 

En esta ocasión, en este artículo se tratará de explicar cuáles son los pasos según los cuales se programa un algoritmo que se inspira en la naturaleza. Concretamente, según su autor se inspira en bandadas de pájaros o bancos de peces. Estoy hablando de uno de los muchos algoritmos de este tipo, y se llama algoritmo de optimización por enjambre de partículas (particle swarm optimization, PSO). Se basa en que muchas partículas-miembros de la bandada ayudan a encontrar la solución óptima del problema. PSO se emplea normalmente para calcular el mínimo de un conjunto de datos. Además, las características de su funcionamiento permiten que no se atasque en mínimos locales, sino que llegue al mínimo absoluto. 



Vamos a intentar explicar los pasos que se darían en este algoritmo, y el ejemplo de la curva anterior nos puede servir de ejemplo:

1- Se crean las partículas que queramos (pongamos 10), que se colocan aleatoriamente a lo largo de toda la curva. 

2- La posición de estas partículas se va a determinar por la coordenada X en la que se sitúan. Es decir, tendremos 10 pares de puntos (X,Y). Pero queremos minimizar la coordenada Y. 

3- En este instante, se comprueba cuál de las 10 partículas tiene la coordenada Y más baja y en qué posición de X está.

4- El resto de las partículas se mueven un poquito hacia la posición de esa partícula en el Y más bajo (de momento).

5- Este proceso se repite unas cuantas veces, dependiendo de la complejidad del problema.

Ahora, veamos en marcha el algoritmo PSO. En el problema de la animación se trata de encontrar el punto mínimo de esa superficie.



Lógicamente, debido a que el algoritmo tiene una parte de aleatoriedad, el algoritmo no va a comportarse exactamente igual en todas las ocasiones. Además, en el paso 4, la velocidad a la que las partículas se acercan a la partícula óptima es variable a voluntad, lo cual puede permitir que se llegue antes a la solución.

El PSO tiene una base de funcionamiento muy parecida a la de los algoritmos genéticos, pero hay diferencias.

En la vida real, no se trata de buscar el punto más bajo de una curva por el mero hecho de hacerlo. Supongamos que tenenemos una máquina que tiene tres parámetros que rigen su funcionamiento (velocidad de giro, temperatura de funcionamiento, y corriente eléctirca, por decir unos): Gracias al PSO podemos calcular cuáles son los valores de esos parámetros para que el sistema tenga un consumo mínimo, por ejemplo.

Este algoritmo tiene modificaciones que hacen que las partículas "aprendan" o que las partículas no se atasquen en ciertas posiciones del problema a resolver. Pero eso lo dejaremos para otro artículo.



Este artículo participa en la Edición 5.6 del Carnaval de Matemáticas, el cua en esta ocasión lo aloja el brillante blog Cifras y Teclas.


Un par de inventos a comentar

En este artículo quisiera comentar un par (quizás 3) de desarrollos tecnológicos que me han llamado poderosamente la atención y que puede que sean parte importante de un futuro cercano. A ver los lectores qué opinan.

Drone de Google para envío de paquetería

Al igual que Amazon, el buscador de Internet también se ha apuntado a esta idea. Sin embargo, su diseño es bastante llamativo frente a otros modelos. Aquí el vídeo:

 



El nombre del projecto es Project Wing. Hay poco material sobre esta idea, estrenada en verano. Pero lo que más me llamó la atención es que es un desarrollo mitad multirrotor-mitad avión. ¿Cuál es la razón? Sobre todo para desplazarnos grandes distancias, un helicóptero es muy poco eficiente. Por esa razón, el Project Wing cuenta con un gran ala en relación a su tamaño. Es decir, más o menos despega verticalmente, y una vez en el aire, gira hasta ponerse horizontal y sustentarse en el ala.

Además, hay otra razón para ello. Para volar a grandes alturas, un multirrotor tendría que tener unas hélices enormes para mover el aire suficiente para la sustentación. 

Un par de aviones reales que hacen maniobras parecidas son el Harrier y el Bell Osprey.

Además, el método de entrega de paquete me parece también curioso. Si os fijais, el drone se queda quieto en el aire, y deja caer el paquete unido a un trozo del drone. Una vez en el aire lo suelta y recoge esa parte.


Nuevo modelo de aspiradora Dyson

El modelo comercial se llama Dyson 360 Eye. Existe ya desde hace tiempo un mercado de aspiradoras robóticas, donde el más conocido es el robot Roomba. Ese aparato no es capaz de autolocalizarse, y simplemente limpia la habitación haciendo espirales. Ahora algunos modelos más recientes detectan obstáculos mediante infrarrojos.

La novedad de Dyson 360 Eye es que incorpora visión artificial, la cual es una prometedora tecnología y sería un éxito que se integrase aún más en el gran público a un precio razonable.


Esta visión artificial, según anuncia Dyson, sí que le sirve para posicionarse en la habitación a través de una cámara 360 grados, mientras que también dispone de infrarrojos para detectar obstáculos.

Dyson parece que se lo ha tomado en serio esta tecnología, y prueba de ello puede ser el acuerdo alcanzado con el Imperial College. La visión artificial no es en absoluto una tecnología madura, sino que es un problema complejo y según qué se quiera detectar (detalles, colores, texturas, etc) el problema cambia bastante.


Estos dos inventos me han llamado bastante la atención. No se sabe a ciencia cierta si finalmente llegarán a nuestros hogares de manera masiva, pero las empresas tienen que estar preparadas para los cambios antes de que ocurran. Si de repente se establece como clara alternativa del envío de paquetería los drones, la empresa que no haya desarrollado lo suficiente para afrontar este reto, quedará muy atrás, con serio riesgo a desaparecer.

Y si no, que se lo digan a todas esas empresas de ferrocarriles de carbón que no veían con futuro la electricidad y el diésel.

Queda un mes para Naukas Bilbao

A pesar de que hace ya unos meses que no he publicado en la web de Naukas a mi pesar, no he dejado de colaborar con ellos, y el próximo mes decenas de blogueros de ciencia acudiremos a la cuarta edición de Naukas Bilbao.

Para quien no lo conozca, se trata de un encuentro en el que la mayoría de divulgadores de la plataforma de divulgación científica Naukas impartimos breves charlas de 10 minutos. La temática de las charlas las elegimos nosotros para intentar hablar de lo que mejor sabemos. Es un evento abierto al público y gratuito hasta completar el aforo. Previsiblemente también habrá un streaming online para los que no se puedan desplazar.

Como ya viene siendo habitual, se celebrará en el Paraninfo de la Universidad del País Vasco en Bilbao, concretamente el 26 y 27 de septiembre.

He acudido a las 4 ediciones, y he hablado en las dos últimas (sobre vulnerabilidades WiFi y sobre los neumáticos de Formula1).  En esta ocasión, impartiré una charla titulada ¿Cómo funciona el coche de Google? Y no voy a adelantar más.

No hace falta que repita que es un gran evento tanto para los divulgadores como para el propio público. A mí me sorprendió conocer el pasado año a varios grupos de personas que habían reservado ese fin de semana para venir desde Cataluña, Madrid, Valencia...

A pesar de que ya he probado otros eventos de desvirtualización de la blogosfera, Naukas Bilbao sigue siendo uno de los que más me apetece por las siguientes razones:

- calidad de charlas y diversidad de temas
- amenidad y entretenimiento 
- punto de encuentro de divulgadores y gente que nos leemos solo por Twitter.
- lo bien que se come en Bilbao

Como novedad este año, se va a volver apostar por el formato Naukas Kids, donde algunos divulgadores enseñarán ciencia de manera divertida a los más jóvenes.

Si queréis saber más del tema, no dejéis de leer el siguiente enlace y nos vemos en Bilbao!



¿Qué es el bitrate?

Probablemente a muchos de los que escuchéis la versión gratuita de Spotify hayáis escuchado el spot diciendo que la mejor manera de escuchar música en este programa es en 320 kbps, lo cual se consigue haciéndose usuario premium. Ese número representa el bitrate, ¿pero qué es eso?



Bitrate puede ser de un sonido o un vídeo, y es la tasa de datos que se transmite por segundo (bit rate). Es decir, lo que anuncia Spotify es que haciéndote premium vas a conseguir canciones que reproducen 320 kilobits por segundo. Si no lo eres, se escucha a 160 kbps. A más alto sea el bitrate, más alta es la calidad de la canción. El bitrate promedio de un archivo MP3 suele ser de 128 kbps. A más calidad, mayor tamaño de archivo, tal y como demuestra la siguiente tabla (cortesía de esta web).


Esto ocurre porque el MP3 no reproduce el sonido original real, sino que debido a su compresión pierde cierta información (recordemos que el MP3 es un tipo de formato de sonido que fue principalmente desarrollado y patentado en el Instituto Fraunhofer). Este formato y esta compresión ha permitido que muchas webs tengan archivos MP3 alojados en ellas.

Esto del bitrate también tiene mucho marketing y lucha con la competencia tras él. Por ejemplo, iTunes trabaja con el formato AAC con un bitrate de 256 kpbs. Personalmente, yo no tengo nada de oído para distinguir entre estas calidades de audio, pero probablemente alguien más entrenado sí que distinga. 

Eso sí, lo que no tiene ni pies ni cabeza es un mito magufo que circula por internet de que la música a 432 Hz es mejor. Si no conocíais el rumor o queréis ver cómo se puede desmontar, os sugiero ver el siguiente vídeo.

¿La robótica se está convirtiendo en estadística?


En los últimos años, el campo de la robótica ha experimentado un gran avance. En el pasado, los ingenios robóticos se limitaban a permanecer en el suelo y a realizar las mismas actividades una y otra vez. Pero desde hace unos años, han habido grandes hitos de la robótica en la exploración espacial, la cirugía médica, los servicios a personas, entretenimiento y aplicaciones militares.

Ejemplos difícilmente imaginables hasta hace bien poco son robots guías de museos, u otros como el Nursebot, que se ocupan de asistir a las personas mayores en varias actividades diarias. Y una de las mayores novedades es que todos estos robots tienen que enfrentarse a la incertidumbre. Por ejemplo, un robot que se mueva por los almacenes tiene que entender dónde están colocados los distintos contenedores. Es un problema muy parecido al modelo guía de museo, pero su problema se ve acrecentado por los obstáculos móviles (la gente).

El robot de asistencia en geriatría encuentra problemas a la hora de entender a “sus pacientes”, los cuales pueden tener dificultades para expresarse y no saber explicar claramente sus dolencias o sentimientos.



En resumen, el entorno de muchos de estos robots es muy cambiante, y solo cuentan con los sensores para entenderlos. Pero los sensores no son tan buenos, ni mucho menos.

Por esa razón, la tendencia que surgió a finales de la década de los 90 fue la robótica probabilística, la cual se ocupa de una única idea clave: representar la información de manera probabilística. Concretamente, los modelos de la realidad en esta rama de la ciencia están representadas por distribuciones de probabilidad que describen la dependencia de unas variables en función de otras en términos de probabilidad.

La navegación de los robots según esta metodología permite predecir distintos estados que se puedan dar en la realidad y realizar un control robusto que lo supere. La robótica probabilística está fuertemente relacionada con la inteligencia artificial (la cual ha realizado grandes avances últimamente) y subramas como la visión artificial y el lenguaje. Pero además, esta nueva moda científica no podría haberse dado hasta que la teoría de la probabilidad, estadística e investigación operativa no hubieran llegado al punto de madurez que han llegado.

El texto que acabáis de leer es una traducción libre (y no del texto completo) del famoso artículo científico que supuso la eclosión de esta ciencia. Está escrito por Sebastian Thrun y se titula Is robotics going statistics? (2006).

¿A qué viene todo esto? Sebastian Thrun actualmente lidera el proyecto del Google Driverless Car, el cual según ya han anunciado será un coche sin pedales ni volante. Han realizado miles de km de prueba con este coche, y parece que en Inglaterra se permitirá la circulación de este tipo de vehículosel próximo año. Y la ciencia que domina los algoritmos de control de este vehículo es la robótica probabilistica (nombre que no me gusta nada y que todavía en la lengua castellana no se escucha mucho).

No quiero ni puedo entrar en detalles técnicos de como funciona el coche de Google y otras alternativas de fabricantes que están desarrollando el suyo. Simplemente quiero dejar claro el cambio de planteamiento en el campo de la robótica. Por mayoría aplastante, vencen los modelos determinísticos, los cuales son los que todos estamos acostumbrados a ver. Es decir, a aplicar x Newtons de fuerza para avanzar y metros, etc. Pero cuando los robots se introducen en ambientes tan distintos al de una fábrica, o una línea de fabricación donde todos los tiempos y espacios están marcados, este modelo ya no sirve y hay que acudir a otro. La robótica probabilística realmente es mucho más potente que el anterior.

¿Cómo funciona el nuevo KERS y el sistema brake-by-wire?

Retomo en el blog la costumbre de artículos técnicos de F1, justo ahora que hemos pasado el ecuador de la competición. Probablemente incluso la gente poco o nada aficionada a esta competición haya escuchado que este año ha habido un cambio grande en los motores: ¡YA NO HAY MOTORES!

Lo que se da ahora en la competición son unidades de potencia (Power Units), que están compuestas por un motor de combustión con turbocompresor, dos partes de recuperación de energía (MGU-H y MGU-K) y unas baterías. Esta nueva configuración del motor tiene sus consecuencias en la normativa en cuanto a penalizaciones por cambiar partes de motor, pero eso no nos interesa ahora.

De manera muy simple, el antiguo KERS es el equivalente a MGU-K, el cual consigue la energía a partir de la frenada del coche. El MGU-H consigue la recuperación de energía a partir del turbocompresor. Precisamente, lo que quiero en este artículo es explicar cómo se genera esa energía en el MGU-K. Es decir, nos deberían de surgir estas preguntas (aunque no todas estén correctamente planteadas):

- ¿Qué energía de la frenada usamos?

- ¿En la frenada, no se consume menos energía que en la aceleración?

- ¿Cómo se transforma el calor de la frenada en electricidad?

Vamos por partes:



El MGU-K puede funcionar como generador o motor, las cuales son opciones contrarias. En un caso, ese aparato genera energía y en el otro la consume. En la frenada concretamente, funciona como generador. La unidad de potencia y la parte eléctrica es de los mayores secretos de las escuderías durante cada año, pero veamos cómo trabaja:

La clave es que el MGU-K sólo se conecta al eje del cigüeñal del Formula1 durante la frenada. En otros momentos no hay unión mecánica. El MGU-K podemos considerarlo como un motor eléctrico: estos elementos normalmente están compuestos por un rotor y un estátor (ambos concéntricos).


El rotor es un elemento giratorio mientras que el estátor es fijo. El rotor está formado por un entramado de bobinas que atraviesan los campos magnéticos de los imanes que hay colocados a lo largo del interior del estátor, y como cualquier estudiante de Física básica debería saber, un conductor que atraviesa campos magnéticos variables es atravesado por una corriente. Es decir, el rotor estaría generando una corriente eléctrica y ésta sería la que se almacene en las baterías del Formula1. Como podéis ver en imágenes reales de este elemento, sí que se parece al dibujo superior:



El tren trasero del Fórmula hace girar el rotor: es decir, el rotor aporta un par resistivo y ayuda a acortar la frenada del Formula1.

Hasta aquí hemos explicado brevemente el MGU-K cómo recupera la energía de frenada. Pero su influencia en la frenada no ha terminado, ya que ahora hay que hablar del sistema brake-by-wire. Éste hace referencia a que no existe unión mecánica entre el pedal y la presión que se ejerce sobre los discos de freno, sino que la presión de frenado se calcula electrónicamente. De esta manera, una pisada del piloto no frenará lo mismo siempre, sino que variará. ¡Vaya lío!

Vamos a intentar decirlo más claro: al pisar el pedal, se genera una pequeña señal eléctrica que llega a la centralita del vehículo. En función de la presión de frenada, la velocidad, etc, la ECU calcula un tipo de presión que la bomba de líquido de freno realizará. Y ahora viene la parte en la que relacionamos con el sistema de recuperación de energía:

La normativa FIA establece claramente el límite de energía que se puede recuperar por vuelta mediante el MGU-K. Por lo tanto, hay un límite por el que este elemento puede funcionar como generador. Mientras el MGU-K no haya llegado al límite de su energía, hay una válvula (comandada por la ECU) que se encarga de reducir la presión de frenado. Sin embargo, cuando se ha alcanzado el limite impuesto por la FIA esta válvula ya no funciona, y los pilotos al frenar podrán ejercer una mayor presión, lo cual puede hacer que bloqueen las ruedas traseras con mucha más facilidad. 

A todo esto, hay que añadir el repartidor de frenada del que ya hablamos hace un tiempo por aquí. No es seguro, pero es posible que esto de que cada vez frenamos con una fuerza distinta sea la razón principal para el aparatoso accidente que hubo en la salida de la primera carrera de la temporada, donde Massa se comió a un monoplaza al llegar a la primera curva.

Por último, aquí tenéis un vídeo de Brembo explicando el sistema de frenado de este año:



Fuentes
 
 



 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Web Hosting