-->

¿Qué es el bitrate?

Probablemente a muchos de los que escuchéis la versión gratuita de Spotify hayáis escuchado el spot diciendo que la mejor manera de escuchar música en este programa es en 320 kbps, lo cual se consigue haciéndose usuario premium. Ese número representa el bitrate, ¿pero qué es eso?



Bitrate puede ser de un sonido o un vídeo, y es la tasa de datos que se transmite por segundo (bit rate). Es decir, lo que anuncia Spotify es que haciéndote premium vas a conseguir canciones que reproducen 320 kilobits por segundo. Si no lo eres, se escucha a 160 kbps. A más alto sea el bitrate, más alta es la calidad de la canción. El bitrate promedio de un archivo MP3 suele ser de 128 kbps. A más calidad, mayor tamaño de archivo, tal y como demuestra la siguiente tabla (cortesía de esta web).


Esto ocurre porque el MP3 no reproduce el sonido original real, sino que debido a su compresión pierde cierta información (recordemos que el MP3 es un tipo de formato de sonido que fue principalmente desarrollado y patentado en el Instituto Fraunhofer). Este formato y esta compresión ha permitido que muchas webs tengan archivos MP3 alojados en ellas.

Esto del bitrate también tiene mucho marketing y lucha con la competencia tras él. Por ejemplo, iTunes trabaja con el formato AAC con un bitrate de 256 kpbs. Personalmente, yo no tengo nada de oído para distinguir entre estas calidades de audio, pero probablemente alguien más entrenado sí que distinga. 

Eso sí, lo que no tiene ni pies ni cabeza es un mito magufo que circula por internet de que la música a 432 Hz es mejor. Si no conocíais el rumor o queréis ver cómo se puede desmontar, os sugiero ver el siguiente vídeo.

¿La robótica se está convirtiendo en estadística?


En los últimos años, el campo de la robótica ha experimentado un gran avance. En el pasado, los ingenios robóticos se limitaban a permanecer en el suelo y a realizar las mismas actividades una y otra vez. Pero desde hace unos años, han habido grandes hitos de la robótica en la exploración espacial, la cirugía médica, los servicios a personas, entretenimiento y aplicaciones militares.

Ejemplos difícilmente imaginables hasta hace bien poco son robots guías de museos, u otros como el Nursebot, que se ocupan de asistir a las personas mayores en varias actividades diarias. Y una de las mayores novedades es que todos estos robots tienen que enfrentarse a la incertidumbre. Por ejemplo, un robot que se mueva por los almacenes tiene que entender dónde están colocados los distintos contenedores. Es un problema muy parecido al modelo guía de museo, pero su problema se ve acrecentado por los obstáculos móviles (la gente).

El robot de asistencia en geriatría encuentra problemas a la hora de entender a “sus pacientes”, los cuales pueden tener dificultades para expresarse y no saber explicar claramente sus dolencias o sentimientos.



En resumen, el entorno de muchos de estos robots es muy cambiante, y solo cuentan con los sensores para entenderlos. Pero los sensores no son tan buenos, ni mucho menos.

Por esa razón, la tendencia que surgió a finales de la década de los 90 fue la robótica probabilística, la cual se ocupa de una única idea clave: representar la información de manera probabilística. Concretamente, los modelos de la realidad en esta rama de la ciencia están representadas por distribuciones de probabilidad que describen la dependencia de unas variables en función de otras en términos de probabilidad.

La navegación de los robots según esta metodología permite predecir distintos estados que se puedan dar en la realidad y realizar un control robusto que lo supere. La robótica probabilística está fuertemente relacionada con la inteligencia artificial (la cual ha realizado grandes avances últimamente) y subramas como la visión artificial y el lenguaje. Pero además, esta nueva moda científica no podría haberse dado hasta que la teoría de la probabilidad, estadística e investigación operativa no hubieran llegado al punto de madurez que han llegado.

El texto que acabáis de leer es una traducción libre (y no del texto completo) del famoso artículo científico que supuso la eclosión de esta ciencia. Está escrito por Sebastian Thrun y se titula Is robotics going statistics? (2006).

¿A qué viene todo esto? Sebastian Thrun actualmente lidera el proyecto del Google Driverless Car, el cual según ya han anunciado será un coche sin pedales ni volante. Han realizado miles de km de prueba con este coche, y parece que en Inglaterra se permitirá la circulación de este tipo de vehículosel próximo año. Y la ciencia que domina los algoritmos de control de este vehículo es la robótica probabilistica (nombre que no me gusta nada y que todavía en la lengua castellana no se escucha mucho).

No quiero ni puedo entrar en detalles técnicos de como funciona el coche de Google y otras alternativas de fabricantes que están desarrollando el suyo. Simplemente quiero dejar claro el cambio de planteamiento en el campo de la robótica. Por mayoría aplastante, vencen los modelos determinísticos, los cuales son los que todos estamos acostumbrados a ver. Es decir, a aplicar x Newtons de fuerza para avanzar y metros, etc. Pero cuando los robots se introducen en ambientes tan distintos al de una fábrica, o una línea de fabricación donde todos los tiempos y espacios están marcados, este modelo ya no sirve y hay que acudir a otro. La robótica probabilística realmente es mucho más potente que el anterior.

¿Cómo funciona el nuevo KERS y el sistema brake-by-wire?

Retomo en el blog la costumbre de artículos técnicos de F1, justo ahora que hemos pasado el ecuador de la competición. Probablemente incluso la gente poco o nada aficionada a esta competición haya escuchado que este año ha habido un cambio grande en los motores: ¡YA NO HAY MOTORES!

Lo que se da ahora en la competición son unidades de potencia (Power Units), que están compuestas por un motor de combustión con turbocompresor, dos partes de recuperación de energía (MGU-H y MGU-K) y unas baterías. Esta nueva configuración del motor tiene sus consecuencias en la normativa en cuanto a penalizaciones por cambiar partes de motor, pero eso no nos interesa ahora.

De manera muy simple, el antiguo KERS es el equivalente a MGU-K, el cual consigue la energía a partir de la frenada del coche. El MGU-H consigue la recuperación de energía a partir del turbocompresor. Precisamente, lo que quiero en este artículo es explicar cómo se genera esa energía en el MGU-K. Es decir, nos deberían de surgir estas preguntas (aunque no todas estén correctamente planteadas):

- ¿Qué energía de la frenada usamos?

- ¿En la frenada, no se consume menos energía que en la aceleración?

- ¿Cómo se transforma el calor de la frenada en electricidad?

Vamos por partes:



El MGU-K puede funcionar como generador o motor, las cuales son opciones contrarias. En un caso, ese aparato genera energía y en el otro la consume. En la frenada concretamente, funciona como generador. La unidad de potencia y la parte eléctrica es de los mayores secretos de las escuderías durante cada año, pero veamos cómo trabaja:

La clave es que el MGU-K sólo se conecta al eje del cigüeñal del Formula1 durante la frenada. En otros momentos no hay unión mecánica. El MGU-K podemos considerarlo como un motor eléctrico: estos elementos normalmente están compuestos por un rotor y un estátor (ambos concéntricos).


El rotor es un elemento giratorio mientras que el estátor es fijo. El rotor está formado por un entramado de bobinas que atraviesan los campos magnéticos de los imanes que hay colocados a lo largo del interior del estátor, y como cualquier estudiante de Física básica debería saber, un conductor que atraviesa campos magnéticos variables es atravesado por una corriente. Es decir, el rotor estaría generando una corriente eléctrica y ésta sería la que se almacene en las baterías del Formula1. Como podéis ver en imágenes reales de este elemento, sí que se parece al dibujo superior:



El tren trasero del Fórmula hace girar el rotor: es decir, el rotor aporta un par resistivo y ayuda a acortar la frenada del Formula1.

Hasta aquí hemos explicado brevemente el MGU-K cómo recupera la energía de frenada. Pero su influencia en la frenada no ha terminado, ya que ahora hay que hablar del sistema brake-by-wire. Éste hace referencia a que no existe unión mecánica entre el pedal y la presión que se ejerce sobre los discos de freno, sino que la presión de frenado se calcula electrónicamente. De esta manera, una pisada del piloto no frenará lo mismo siempre, sino que variará. ¡Vaya lío!

Vamos a intentar decirlo más claro: al pisar el pedal, se genera una pequeña señal eléctrica que llega a la centralita del vehículo. En función de la presión de frenada, la velocidad, etc, la ECU calcula un tipo de presión que la bomba de líquido de freno realizará. Y ahora viene la parte en la que relacionamos con el sistema de recuperación de energía:

La normativa FIA establece claramente el límite de energía que se puede recuperar por vuelta mediante el MGU-K. Por lo tanto, hay un límite por el que este elemento puede funcionar como generador. Mientras el MGU-K no haya llegado al límite de su energía, hay una válvula (comandada por la ECU) que se encarga de reducir la presión de frenado. Sin embargo, cuando se ha alcanzado el limite impuesto por la FIA esta válvula ya no funciona, y los pilotos al frenar podrán ejercer una mayor presión, lo cual puede hacer que bloqueen las ruedas traseras con mucha más facilidad. 

A todo esto, hay que añadir el repartidor de frenada del que ya hablamos hace un tiempo por aquí. No es seguro, pero es posible que esto de que cada vez frenamos con una fuerza distinta sea la razón principal para el aparatoso accidente que hubo en la salida de la primera carrera de la temporada, donde Massa se comió a un monoplaza al llegar a la primera curva.

Por último, aquí tenéis un vídeo de Brembo explicando el sistema de frenado de este año:



Fuentes
 
 



Newton y sus cálculos de vuelo

Isaac Newton fue el primer científico que se propuso realizar una teoría del drag y lift (resistencia aerodinámica y sustentación), y ésta le sirvió para predecir que volar era matemáticamente imposible. Más bien, que el ser humano nunca construiría algo que permitiera volar. 

¿En qué cálculos se basó? Básicamente empleó esta ecuación:


donde L es la sustentación, y es igual al aire que golpea en una superficie que está inclinada. α indica el grado de inclinación, ρ la densidad del aire y U la velocidad en m/s. A partir de esa expresión, llegó a que la sustentación vale (pág 288 para más info):


Es decir, para Newton el vuelo era fruto de las moléculas de aire golpeando en el fonde una de superficie y que por su ley de acción-reacción, esa fuerza elevaría el objeto. Es el procedimiento por el cual una piedra rebota sobre la superficie del agua, por lo que a menudo se denomina a este error histórico skipping stone theory. Las lagunas que tenía este modelo están resumidas aquí.

Le salían valores de sustentación bajísimos, e incluso su teoría estuvo apoyada por otro científico que tradicionalmente le llevó la contraria, como D'Alembert. Concretamente, este francés en 1752 realizó unos cálculos que le llevaron a formular la paradoja de D'Alembert, la cual decía que un cuerpo moviéndose a velocidad constante en un fluido incompresible y no viscoso, no tenía resistencia aerodinámica. Sin embargo, tal y como se ha demostrado en los siglos posteriores, también se equivocaba.

Newton realmente lo que calculó fue el agua que golpea a una tabla de surf. La relación entre la densidad del agua y el aire es de 1000, y por lo tanto volar en el aire requiere unas 30 veces más de velocidad que hacerlo en el agua.

No fue hasta que los hermanos Wright en 1903 hicieron el primer vuelo a motor de la historia que los matemáticos corrigieron la fórmula de Newton, aunque en esta ocasión, tampoco fue estrictamente la fórmula correcta.

Para comprender la explicación correcta de vuelo de manera sencilla, recomiendo pasar por el blog de @emulenews y leer sus dos entradas Bernouilli no explica por qué vuelan los aviones y El efecto Coanda en una cuchara y cómo funciona el ala de un avión







Ciudad 30 ó 50

Es posible que la ciudad en la que viváis hayan impuesto el límite urbano de velocidad en 30 km/h para todo tipo de vehículos, en lugar de los tradicionales 50 km/h. Eso ocurre en la ciudad del que escribe, por ejemplo.



Según parece, esta iniciativa proviene de la Comisión Europea y es una iniciativa ciudadana recogida en 2012. Más información aquí. Esta información y los beneficios de esta iniciativa están ampliados en páginas dedicadas a ello, como http://es.30kmh.eu/, donde viene más información sobre la iniciativa.

Algunas de las ventajas que se abanderan a la hora de defender esta iniciativa son:
 - no tener que invertir grandes cantidades de dinero para llevarla a cabo
 - mejora de la seguridad del peatón en la ciudad
 - ahorro del consumo en ciudad
 - reducción de la contaminación
 - descenso del nivel de decibelios

En algunas ciudades, como en la mía, a estas ventajas han añadido la de convertir las carreteras en carriles bici aprovechando la reducción de velocidad. Pero también me ha tocado pasar muchas horas pensando en iniciativas de tráfico y su gestión, y este artículo del blog va de ello. La idea del límite a 30km/h se basa en la idea de que reducir el límite de velocidad en vía urbana tiene los mismos efectos que reducirlo en autopista, pero se demuestra (según el modelo matemático empleado) que algunas emisiones por ejemplo pueden multiplicarse (fuente).

Una de las científicas de referencia que tenía en mi bibliografía era Eva Ericsson, investigadora en Suecia. Realmente no se centraba en el modelado de motores, sino en la relación entre las variables de conducción y los hábitos de los conductores. De sus trabajos se sacan algunas conclusiones interesantes. Sin embargo, no debemos perder de vista que el modelado de emisiones y consumo de un vehículo no es nada sencillo y no hay una ciencia exacta al respecto (fuente). Y menos si tenemos en cuenta vehículos de distinta antigüedad, hábitos de cada conductor, tipo de recorrido que lleva, mantenimiento del vehículo, etc.

Además, realizar estudios válidos y rigurosos sobre tráfico es bastante complejo. Se necesita analizar una gran casuística y con un número grande de voluntarios. Para realizar experimentos válidos es muy habitual emplear los ciclos de conducción, de los que ya se habló en este blog hace un tiempo (1 y 2).

Para comenzar, adjunto una gráfica sobre la relación entre emisiones contaminantes y velocidad media de un vehículo ligero (tal y como dice la fuenteaverage speed emission functions for a typical light-duty catalyst equipped vehicle).


En general, vemos que aumentan con la velocidad. Sin embargo, las revoluciones del motor también afectan enormemente al consumo y emisiones. Es decir, si asumimos que un conductor circula a 4.500 rpm a 30km/h y otra persona a 1.800 rpm a 50km/h, tendrá muchísimo peor rendimiento la primera opción. Pero no todo se simplifica a esta frase: la ciudad 30 solo es efectiva si circulas en la marcha correcta. NO.

Los mapas motor de los vehículos son tridimensionales, y al binomio RPM - Consumo de combustible, tenemos que añadir la carga sobre el acelerador (cuánto pisamos). Un ejemplo de esa gráfica son las siguientes:




Y este mapa 3D es distinto para cada motor. Por lo tanto, para poder comparar entre la bondad de un límite de velocidad u otro habría que tener en consideración estos tres factores a la hora de ver consumo de combustible y emisiones.

Hay una excepción a esto, y es que el párrafo anterior se cumple para velocidades inferiores a 60 km/h, ya que a partir de esta velocidad el factor más determinante en el consumo de combustible es la resistencia aerodinámica. ¿Cuál es la conclusión de todo esto? No tengo argumentos técnicos para afirmar que a 30 km/h se vayan a reducir las emisiones y el consumo de combustible sin realizar un estudio detallado de una zona urbana... pero tampoco los tienen los gestores que implantan la Ciudad30.

Como se puede imaginar, en un entorno urbana con tantos tramos de conducción transitoria, acelerones, semáforos, peatones... es bastante difícil realizar un estudio concluyente. Es por estas razones por las que se echa mano de simuladores de conducción, donde sí que se pueden controlar mucho más fácilmente variables como la carga sobre el acelerador, y es difícil estimar el impacto de las políticas de tráfico, tal y como cita este artículo. Además, lo que ocurra en una zona urbana en un país en particular no tiene por qué ser extrapolable a otro, ya que depende de bastantes parámetros y de la intervención del factor humano.

Este estudio, por ejemplo, afirma que it is unlikely that imposing strict speed limits in urban areas has a significant influence on emissions of NOx or CO2 (fuente).

En este artículo de The Guardian hay pros y contras de estudios realizados en zonas distintas y su influencia sobre los accidentes. O este otro estudio muestra datos de congestión de ciudad que hay que tener en cuenta.

Al final de este artículo dejaré más enlaces con estudios referentes a la influencia de distintas variables en la conducción. Sin embargo, no puedo terminar el artículo sin agradecer a @GuilleAlfonsin su ayuda y contribuciones.




http://lup.lub.lu.se/luur/download?func=downloadFile&recordOId=627123&fileOId=1266930
http://www.tft.lth.se/fileadmin/tft/dok/KFBkonf/1ericsson.PDF
http://www.epa.gov/ttnchie1/conference/ei20/session8/acattivera.pdf
http://publications.jrc.ec.europa.eu/repository/bitstream/111111111/22474/1/co2_report_jrc_format_final2.pdf
http://www.monash.edu.au/miri/research/reports/muarc276.pdf
https://www.vito.be/Lists/ScientificOutput/Attachments/3239/58808845.PDF
http://www.tft.lth.se/fileadmin/tft/dok/KFBkonf/1HoglundNiitymeki.PDF
http://acrs.org.au/files/arsrpe/RS010036.pdf


Coriolis y los huracanes

Uno de los conceptos que más desconcierta a los alumnos a la hora de aprender conceptos sobre Mecánica Clásica es la de fuerzas ficticias. Se entiende por Mecánica Clásica la que ocurre con objetos de la escala a la que estamos acostumbrados, ya que a nivel de las partículas, se dan otros efectos.

La idea de fuerzas ficticias y fuerzas reales tiene que ver con el sistema de referencia que usamos para entender el entorno. Es decir, no es lo mismo que fijemos como origen de coordenadas a una persona en el andén de una estación, o a una persona que viaja en un tren. Dentro de los conceptos de este tipo de fuerzas, una de las más conocidas es la provocada por la aceleración de Coriolis, la cual se da en sistemas que están rotando. Concretamente, esta fuerza sirve para explicar el sentido de giro de los huracanes.

Estos fenómenos meteorológicos giran en sentido anti horario en el hemisferio norte, y en sentido horario en el hemisferio sur. Vamos a ver en qué consisten y cómo se demuestra este efecto con las fórmulas que un alumno cualquiera pueda ver en clase:

Pensemos que el hemisferio norte lo convertimos en un disco plano. Lógicamente, sigue girando. Un huracán es una zona de baja presión, lo cual atrae a los vientos de su alrededor.


Es decir, lo más normal sería que el viento que baja del norte o el viento que sube del sur fueran en línea recta. Sin embargo, no es del todo correcto. Para ello, pensemos en un sistema de coordenadas tal que así donde la pantalla representa el plano X-Y, y Z es el plano perpendicular. Es decir:

La velocidad de giro de la Tierra en ese sistema tiene componente Z únicamente, y su valor es w. La aceleración de Coriolis (llamada así en honor al científico francés Gaspard de Coriolis, 1792–1843) tiene la fórmula de un producto vectorial de la forma:

Acel Coriolis = 2 · w x velocidad

El producto vectorial es una sencilla operación. Pensemos en el viento que sube del sur, el cual tiene una velocidad v. Al hacer el producto vectorial entre esa velocidad y la velocidad de rotación de la Tierra, nos aparece una aceleración de Coriolis con sentido X positivo. Es decir, eso significa que se está desviando hacia la derecha. En cambio, un viento que baje del norte, en el producto vectorial va a tener un sentido Y negativo, lo cual implica que se desvía hacia la izquierda, tal y como aparece en la siguiente imagen:


Y como el centro de bajas presiones sigue atrayendo a los vientos, se terminará formando esto:


Lo cual provoca que el huracán gire en sentido antihorario en el hemisferio norte, y en sentido horario en el sur. La fuerza por efecto Coriolis se consigue al multiplicar la aceleración por la masa. Para que este efecto sea perceptible, la masa de aire ha de ser muy grande, por lo que el efecto Coriolis no se puede apreciar en desagües de grifos ni pequeños recipientes, tal y como circula en muchos vídeos de la Red.

Para más información y profundización, recomiendo este vídeo educativo del MIT.




Artículo original aparecido aquí.

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Web Hosting