sábado, 31 de julio de 2010

¿Por qué los elefantes de circo no se liberan de la pequeña estaca que los sujeta?

sábado, 31 de julio de 2010
¿Nunca os habéis fijado que los elefantes de los circos se mantienen sujetos por una fuerte cadena atada una pequeñísima estaca, en comparación con el tamaño y fuerza del elefante, clavada en el suelo? ¿Por qué no escapan? La respuesta a esta pregunta forma parte de una de las grandes metáforas aplicadas a los seres humanos, en lo que concierne a superación personal entre otras muchas cosas. El psicodramatista, terapeuta gestáltico y escritor argentino, Jorge Bucay, escribió en 2008 un mini cuento para niños llamado "El elefante encadenado", donde recoge la clave del asunto de una manera muy clara y didáctica, desde la visión de un niño en primera persona.

Mejor dejo que lo escuchéis de su propia voz ya que no tiene desperdicio. Después, ¡a reflexionar!.




Recogido del cuento: "El elefante encadenado", Jorge Bucay, 2008.



viernes, 30 de julio de 2010

¿Por qué medimos los años de los perros en "años humanos"?

viernes, 30 de julio de 2010
¡Curiosa actitud la de querer medir todo según la medida de lo humano! El perro, como tantos otros animales, tiene un ritmo biológico específico. Por consiguiente, tiene su propia esperanza de vida: de 8 a 15 años (según la raza y otros parámetros). Por tanto, las equivalencias no significan gran cosa.

¿Por qué no preguntarse a qué corresponde en años humanos un minuto de la corta existencia de una bombyx mori (la mariposa del gusano de seda), que vive 24 horas? ¿Y qué decir de un segundo de aquellos insectos que apenas viven una hora? Cuando ese mosquito haya vivido 22 minutos y 33 segundos, ¿Qué edad tiene en términos humanos? ¡Ridículo!

Pero bueno, concedamos que la proximidad doméstica y afectiva del perro atraiga la curiosidad y anime a los niños a hacer esa pregunta. Así que aquí un cálculo que permite establecer una equivalencia razonable. Y de paso, nada que ver con la fórmula simplista que consiste en multiplicar la edad real del perro por siete.

El principio consiste en quitar un año de la edad del perro, multiplicar el resultado por cuatro y sumarle 21. Por ejemplo, para un perro de 7 años, 7-1=6; 6x4=24; 24+21=45 años humanos (en este caso cercano a los 49 de la teoría de multiplicar por 7). Pero para un perro de 15 años, 15-1=14; 14x4=56; 56+21 = 77 años humanos (Mucho más coherente que los 15x7=105 años de la otra teoría).



La geometría del fútbol

¿Qué podemos contar del fútbol, el llamado deporte rey, que no se sepa todavía? Hoy vamos a arriesgarnos, ya que intentaremos analizar brevemente el motivo de las dimensiones de un campo de fútbol basados en sus relaciones geométricas. Para ello, deberíamos familiarizarnos un poco con las unidades de medida inglesas, ya que, como tantos otros deportes, fueron los ingleses los que inventaron lo que para muchos se ha convertido en la mayor plaga mundial.
Los ingleses miden la distancia en yardas y en pies. Un pie son 30,48 cm y una yarda, tres pies. Así, una yarda equivale a 91,44 cm. Por tanto, entre yardas y pies existe una relación de uno a tres, y esa relación se ve reflejada repetidas veces en el campo de fútbol.

La longitud de un campo puede variar entre las 100 y las 130 yardas (91,44 y 118,87m) y su anchura entre las 50 y las 100 yardas. Para la copa del mundo se toman dimensiones estándar, que corresponden a la media aritmética de esas dimensiones. Así, un campo estándar tendrá 115 yardas de largo (105,16 m) y 75 yardas de ancho (68,58 m). Estas dimensiones corresponden, prácticamente, a las de un rectángulo cuyos lados están en la proporción tres a dos. Es decir, por cada tres pies de largo tendríamos dos pies de ancho, y esta relación va a incidir en el resto de la geometría.

Si anchura y longitud pueden variar entre ciertos límites, el resto de las dimensiones del campo son fijas. Así, sean cuales sean las dimensiones del campo, la anchura de la portería es de 24 pies (7,3152m) y su altura 8 pies (2,4384m). El área pequeña mide seis yardas de largo (5,5 metros) por veinte de ancho (18,3 metros), anchura igual al diámetro del circulo central. Eso quiere decir que disparando desde el circulo central, un jugador puede saber perfectamente dónde se encuentra la portería, sin mirarla, sólo fijándose en su posición con respecto al centro del campo. El área grande mide dieciocho yardas de largo, es decir tres veces más que el área pequeña. La anchura de la misma viene fijada por el punto de intersección entre la línea imaginaria de dieciocho yardas que cruzara el campo de parte a parte y la prolongación de la recta que une uno de los postes de la portería con el vértice del área pequeña. Esto resulta en una anchura de unos 40,32 m.

Sigamos. El arco del área grande, que sobresale de ella, también corresponde a una parte de un círculo de veinte yardas de diámetro, cuyo centro es el punto de penalti. Éste se sitúa a once metros de la línea de fondo, como es bien sabido, pero esa distancia corresponde a los dos tercios de la longitud del área grande, es decir, a 12 yardas. Vemos aquí como las proporciones tres a dos, o tres a uno, se repiten a lo largo de todas las dimensiones del campo.

Estas dimensiones no se han escogido al azar, sino que se han ido eligiendo a medida que hizo falta fijar distancias y proporciones para hacer el juego lo más equilibrado posible.

Escuchado en el podcast La geometría del fútbol



jueves, 29 de julio de 2010

Las claves de un fenómeno molesto: El hipo

jueves, 29 de julio de 2010
¿Como se denomina en términos médicos?

Sungultus o espasmo del diafragma, por lo que lo seguiremos llamando "hipo", ¿verdad?

¿En qué consiste?

Los ataques de hipo son contracciones repetidas, espasmódicas e involuntarias del diafragma que provocan una inspiración súbita, seguida de la contracción de las cuerdas vocales, lo que cierra el paso del aire que ha entrado y origina ese sonido tan característico.

¿Cuándo y por qué se provoca?

El hipo se provoca cuando se da alguna situación anómala que afecta al movimiento regular del diafragma. La más común es que el estómago esté más hinchado de lo normal, lo que ejerce una presión sobre el diafragma. Esto puede darse después de comidas copiosas, tras la ingesta de bebidas con mucho gas o si hemos comido demasiado rápido, lo que provoca que la comida llegue menos triturada al estómago.

Una irritación de la garganta o del estómago, los nervios o la excitación también pueden provocarnos hipo.

¿Sirve para algo?

Personalmente no me puedo creer que este molesto hipo no tenga ninguna finalidad provechosa para nosotros. Existe alguna teoría que intenta explicar que el hipo intrauterino ayuda al feto a fortalecer el diafragma y a madurar su sistema respiratorio, que en los niños pequeños ayuda a que la leche no se pase a los pulmones y en los adultos sirve para extraer el gas de un estómago demasiado lleno. Sin embargo, ningún científico ha conseguido confirmar nada aún acerca de la finalidad fisiológica real del hipo.

¿Qué podemos hacer para quitarlo?

De esto podríamos hablar largo y tendido, todos tenemos nuestro librillo con trucos para evitarlo, desde el típico susto o aguantar la respiración hasta el beber X tragos de agua seguidos. Pero ninguno de los anteriores ha sido constatado científicamente. El único método valido y constatado consiste en respirar dióxido de carbono. ¿Cómo podemos hacerlo? Pues muy fácil, aprovechando que sabemos que las personas respiramos oxigeno y devolvemos a la atmósfera dióxido de carbono, podemos utilizar una bolsa de plástico y respirar dentro de ella. Cuando llevemos unas pocas respiraciones, quedará muy poco oxígeno dentro y al respirar el dióxido de carbono, mágicamente, el hipo desaparecerá. Un servidor lo probó hace menos de una semana, y lo confirmo, funciona, ¡y rápido!. Por supuesto, no es peligroso y si véis que en unas cuantas respiraciones no se os ha quitado, comprobad como yo, que la bolsa no tenga ningún agujero del tamaño de una rodaja de chorizo...

Fuentes:




miércoles, 28 de julio de 2010

¿Por qué crecen más las uñas de las manos que las de los pies?

miércoles, 28 de julio de 2010
Como dirían los maestros, ¡No hay pregunta tonta! Sin embargo esta cuestión de la diferencia de crecimiento entre las uñas de las manos y de los pies pertenece sin duda a la categoría de los enigmas que permanecen toda la vida en lo más íntimo de la persona ya que creemos que la gente no va a devanarse los sesos por tan poca cosa y, si alguien encuentra la solución al problema, tampoco es que por eso le vayan a entregar un Premio Nobel por su descubrimiento.

Efectivamente, todos hemos notado que tenemos que cortarnos las uñas de las manos el doble de veces que las de los pies. Lógico: Las primeras crecen de media unos cinco centímetros al año, mientras que las segundas tardarían el doble en alcanzar esa longitud.

Algunos dermatólogos han estudiado este curioso fenómeno y sus conclusiones se basan en dos observaciones.

Para empezar, una uña que recibe un golpe (o que se rompe en parte) crece más rápidamente que su vecina. En nuestra vida diaria, las uñas de las manos reciben muchos golpes, aunque leves, pero que pueden estimular su crecimiento. Esos microtraumatismos ligados a la actividad diaria afectan menos a los dedos de los pies.

Segunda constatación: las uñas crecen más en verano que en invierno, lo que quiere decir que la exposición a la luz tendría un papel en el mecanismo de su crecimiento. En este aspecto, los dedos de los pies están más protegidos de la luz que los de las manos, excepto en los que andan todo el día descalzos, claro.

Por tanto, la acción combinada de los choques y la luz bastaría para explicar la diferencia de crecimiento, lo que por otra parte tampoco debería quitarnos el sueño.



lunes, 26 de julio de 2010

Cazadores de Mitos(V): No podemos dormir con plantas en la habitación

lunes, 26 de julio de 2010

Llevo años escuchando esta afirmación, que debemos sacar las plantas de lugar donde dormimos ya que por causa de la fotosíntesis respiración nocturna, las "malvadas" plantas consumen el oxígeno de la habitación, expulsando dióxido de carbono, pudiendo provocar la asfixia de las personas que hay en el interior. ¿Cuánto de verdad hay en este mito?

La verdad, muy poco. No hay ninguna duda en el mecanismo de la fotosíntesis respiración, que realmente por la noche hace que las plantas consuman el oxígeno y devuelvan al exterior dióxido de carbono. Ahora bien, la cantidad de oxígeno que puede consumir una planta (de dimensiones normales que entre en una habitación) es muchísimo más pequeña que la que puede consumir cualquier persona, por lo que si esto fuera cierto, la humanidad se hubiera visto condenada a dormir en soledad o con bombonas de oxígeno individualizadas, para evitar a los "malditos ladrones de oxígeno", como pueden ser vuestras parejas o hermanos.

Aún así, suponiendo que las plantas fueran capaces de consumir mucho más oxígeno que las personas, ¿en qué tipo de bunker nuclear dormimos que no permite la entrada de oxígeno del exterior? Puede que un astronauta en la Estación Espacial Internacional tenga preocupación por el oxígeno restante pero en un ambiente normal es prácticamente imposible quedarse sin oxígeno.

Personalmente creo que este pensamiento erróneo nos viene por la edad que tenemos cuando nos explican el mecanismo de la fotosintesis de las plantas, ya que en esa edad no somos realmente capaces de reflexionar profundamente y nos quedamos únicamente con la idea superficial de: Plantas, noche, roban oxígeno, expulsan dióxido de carbono, nos asfixiamos y esa idea se te queda y la transmites de generación en generación.
Corrección (by daccra)

las plantas durante la fotosíntesis no emiten CO2, si no que lo absorben del aire y lo utilizan desarrollarse.
El CO2, lo emiten, como el resto de animales, el el proceso de respiración celular, a través del cual se produce la energía de los seres vivos.
Las plantas emiten CO2 durante el día y la noche, lo que sucede es que durante el día, gracias a la fotosíntesis, absorben más CO2 del que expulsan.



domingo, 25 de julio de 2010

Reino Unido: Fusión de banderas

domingo, 25 de julio de 2010
Fusion de banderas de Reino Unido
Esta imagen ha sido extraída de la entrada La polémica bandera britanico - irlandesa de http://masguinness.com



Jochen Rindt, único campeón póstumo de F1

En la previa del Gran Premio de Hockenheim, Alemania, en el que ha salido vencedor el español Fernando Alonso, han mencionado el curioso caso del piloto austriaco Jochen Rindt, único piloto que ha ganado un mundial de pilotos después de fallecer y me ha resultado un caso digno de investigación para compartirlo con todos vosotros.

La historia se remonta a 1970, cuando Jochen Rindt decidió cambiar de aires y dejó el equipo Brabham, cuyo manager era Bernie Ecclestone, para intentar ganar títulos con el equipo Lotus.

Como curiosidad, el mencionado manager y amigo del piloto, Ecclestone, le aconsejó al protagonista de la historia que si quería ganar títulos fichara por Lotus, pero si quería permanecer vivo se quedara en Brabham. ¿vidente o adivino?

Rindt, tras muchas discusiones con su manager Chapman que al final cedió, comenzó el mundial con el coche del año anterior, el Lotus 49C, con el que consiguió una espectacular victoria en el circuito de Mónaco. Pero 2 carreras después entró en escena el que para muchos entendidos fue el mejor coche de F1 de la historia, el Lotus 72C. Rindt consiguió cuatro victorias consecutivas en Holanda, Francia, Gran Bretaña y Alemania, pero al cosechar malos resultados en la siguiente carrera en Austria, Rindt quiso volver al modelo anterior para el GP de Monza, Italia. Esto no fue posible por la decisión del manager de equipo, y llegó a Monza con el 72C. En la jornada de entrenamientos libres o de prácticas como se conocía en aquellos años, el piloto sufrió un escalofriante accidente cuando se acercaba a la Parabólica. Oficialmente, murió durante el traslado en ambulancia al hospital. Era el segundo piloto que fallecía en Lotus cuando ocupaba el lugar de líder tras el fallecimiento de Jim Clark en 1968.

El trágico accidente mortal y el resto de resultados de la prueba, daba la oportunidad a 6 pilotos para llevarse el campeonato del mundo, pero al terminar el siguiente Gran Premio en Canadá, únicamente el piloto belga Jackie Ikcx, tenía en sus manos salir campeon. Para ello tenía que ganar las 2 carreras restantes, pero sólo lo consiguió en una de ellas, lo que permitió que Rindt, se convirtiera en el primer Campeón del Mundo de F1 después de fallecido.

Fuente:



sábado, 24 de julio de 2010

El origen de la famosa marca Adidas

sábado, 24 de julio de 2010
La famosa multinacional que comercializa ropa, material y calzado deportivo fue fundada en 1920 por un emprendedor alemán, Adolf Dassler.

Todo comenzó al cumplir los 20 años, cuando inventó los zapatos de clavos para correr en pista. Cuatro años más tarde, Adolf (Adi para los amigos) fundó junto con su hermano Rudolf (Rudi) una empresa llamada Gebrüder Dassler OHG, que se instaló en su pueblo natal, Herzogenaurach, donde su padre tenía una pequeña zapatería.

Al año siguiente (1925), los hermanos Dassler se centraron en el calzado para el fútbol, deporte favorito de Adi, e inventaron una bota de cuero con tacos. Cada día sus talleres fabricaban de treinta a cincuenta pares de botas.

Diez años más tarde, con ocasión de los Juegos Olímpicos de Berlín (1936), un atleta negro, Jesse Owens ganaba cuatro medallas de oro (100 y 200 metros lisos, salto de longitud y 4 x 100 metros). Un triunfo que, alos ojos de todo el mundo, puso en ridículo a los que pretendían una supuesta superioridad de la raza aria y al mismísimo Adolf Hitler. Jesse Owen iba calzado con las zapatillas de clavos inventadas por los hermanos Dassler.

Tras doce años más de colaboración, los dos hermanos se separaron en 1948. Adolf se acordó del diminutivo que había conservado siempre, Adi. Como el nombre le pareció insuficiente, añadió las tres primeras letras de su apellido (Das), de donde salió la reconocida Adidas.

Como última curiosidad, su hermano Rudolf fundó Puma, que se convertiría en una de las principales competidoras de Adidas en Europa.



viernes, 23 de julio de 2010

Elefantes vs Abejas: fobias de un gran animal

viernes, 23 de julio de 2010
Aunque el mito más extendido sobre los miedos de los elefantes estan relacionada con los pequeños ratones, algunos zoólogos sugieren que los paquidermos huyen ante la presencia de roedores no por miedo, sino por instinto: la vista de los elefantes no enfoca bien los objetos que se encuentran a corta distancia. Cuando esto sucede levantan la trompa y comienzan a pisotear el suelo, para que el intruso huya. Sin embargo, la gran fobia de los elefantes africanos es con otro animal, incluso más pequeño que los primeros: las abejas.

Tal es la fobia que sienten, que hasta han desarrollado una señal de alarma propia para advertirse entre ellos que dichos insectos se están acercando. Lo han descubiero científicos de la Universidad de Osford en una reserva natural de Kenia. El descubrimiento se realizó cuando los científicos pusieron a una manada de elefantes una grabación en la que se escuchaba el sonido de un enjambre de abejas enfadadas. Después de escucharlo, los animales empezarón a huir, y el elefante que más tardó en hacerlo, lo hizo en 80 segundos. A pesar de ser tan grandes y tener la piel tan gruesa y resistente, siente pavor ya que las abejas africanas no son como las que conocemos normalmente, ya que cuando pican, a parte de morir como el resto de su especie, libera una sustancia química que atrae al resto de abejas cercanas y las anima a picar...¡En el mismo sitio! y si ese sitio es la trompa o la piel alrededor de los ojos, los elefantes lo tienen muy complicado, ya que esa zona es la más sensible que tienen y que además puede traspasar el aguijón.

En un segundo experimento, los científicos se centraron menos en el tiempo de huida de los elefantes y más en los sonidos que éstos hacían, y fue entonces cuando descubrieron la señal de alarma. Es similar al sonido de un tractor, según explican los investigadores, ya que los elefantes son capaces de modular la voz y hacer diferentes sonidos moviendo los labios y la lengua al igual que los humanos. Para los elefantes dicha señal quiere decir algo así como: ¡Cuidado, que hay abejas, vámonos! y en cuanto algún miembro de la manada lo emite, se levantan todos y se van presurosos.

El estudio forma parte de un proyecto que está realizando la organización 'Save the elephants' junto a la Universidad de Oxford desde hace unos cinco años y cuyo objetivo es evitar los conflictos entre los elefantes y campesinos, ya que éstos últimos cada vez ocupan más espacio con sus plantaciones y los elefantes en varias ocasiones arrasan los cultivos, se los comen y/o los aplastan. Para solucionarlo y conociendo en la actualidad esta fobia, se utilizan colmenas de abejas para evitar el acercamiento de los inmensos paquidermos.




jueves, 22 de julio de 2010

Varias razones científicas para creer en los vampiros

jueves, 22 de julio de 2010
Una noche oscura y tormentosa, el neurólogo español Juan Gomez-Alonso se encontraba viendo una películas de vampiros cuando se dio cuenta de algo extraño, el comportamiento de los vampiros era muy similar a los enfermos con la rabia.

Para empezar, esta patología es transmitida por un virus mediante mordedura, lo que es fácilmente reconocible en un ataque de vampiro. El virus ataca el sistema nervioso central, alterando el estado de ánimo y los comportamientos de los infectados. Las víctimas se vuelven inquitas y dementes y, al igual que los vampiros, su carácter puede volverse violento. La rabia tiene otros síntomas, puede causar insomnio, lo que explicaría el tema de la nocturnidad del mito vampiresco. Además, los enfermos con rabia también sufren espasmos musculares, que incluso a veces les puede llevar a escupir sangre. Más impresionante aún es el hecho de que estos espasmos son provocados normalmente por las luces brillantes, agua, espejos y olores muy fuertes (el olor a ajo por ejemplo podría aplicarse en este contexto...).

Después de estos razonamientos, el doctor se sintió obligado a continuar estudiando el mito de los vampiros y la historia médica de la rabia. Con el tiempo, descubrió una conexión aún más profunda entre los dos fenómenos: Las historias de vampiros fueron recogidas en las principales gacetas y revistas de Europa en el siglo XVIII, exactamente al mismo tiempo en que ciertas áreas europeas estaban experimentando brotes de rabia. Esto fue particularmente cierto en Hungría entre 1721 y 1728, que sufrió una grave epidemia que también afecto a perros, lobos y otros animales.

Gómez-Alonso publicó en 1998 un artículo en la distinguida revista médica Neurología en el que contó la teoría de que la leyenda del vampirismo se basaba realmente en la enfermedad de la rabia.

Sin embargo, Gómez-Alonso no fue el primer cinetífico que trató de precisar el vampirismo a una enfermedad real. En 1985 el bioquímico canadiense David Dolphin propuso un vínculo entre los vampiros y la porfiria, una rara enfermedad que se caracteriza por la producción irregular de un componente de la hemoglobina, un pigmento rico en hierro en la sangre. El trastorno puede causar convulsiones, trances y alucinaciones que duran días o semanas.

Como resultado, las personas con porfiria a menudo sufren demencia y también experimentan una sensibilidad extrema a la luz, tanto, que sufren de ampollas y quemaduras cuando su piel se expone al sol. Otro síntoma de porfiria es una intolerancia al azufre en los alimentos. ¿Qué alimento creéis que contiene una gran cantidad de azufre? Sí, lo habéis acertado, el ajo.

Volveremos más adelante con otras explicaciones científicas a los mitos de personajes "inventados", como los zombies o el hombre lobo.

Fuentes:



miércoles, 21 de julio de 2010

El Bloody Mary y la aristocracia británica

miércoles, 21 de julio de 2010
Lo que hoy conocemos como un apetitoso cóctel, el Bloody Mary tuvo su origen en una historia para no dormir de la familia aristocrática británica del Siglo XVI.

Hija de Enrique VIII de Inglaterra (1491-1547) y Catalina de Aragón, María Tudor tuvo que sufrir la desgracia de su madre, que fue sustituida en el trono por su dama de honor Ana Bolena, nueva reina de Inglaterra. Cuando nació la hija de ésta última, la que iba a ser Isabel I (1533), su madre Ana expulsó de la corte a María, que además tuvo que reconocer incluso su nacimiento como ilegítimo. Pero María Tudor llegó a suceder a Eduardo VI (1537-1553), hijo de Enrique VIII y de Juana Seymour. Ésta a su vez había sucedido a Ana Bolena, condenada a muerte por adulterio (1536) por un tribunal presidido por su propio padre.

El matrimonio de Maria Tudor con Felipe II, rey de España, provocó una rebelión que dio lugar a un endurecimiento del régimen. María impuso el catolicismo, encarceló a Isabel en la torre de Londres y persiguió a los protestantes. Todo ello no se logró sin un gran derramamiento de sangre, lo que le valió a María el sobrenombre de Bloody Mary (María la sangrienta). El célebre cóctel a base de vodka y zumo de tomate tomo así, por afinidad de color, el sobrenombre de María Tudor, llamada también María la Católica.

A la muerte de María Tudor (1558), Isabel se tomó la revancha. Repudiada tras la muerte de su madre Ana Bolena, Isabel accedió al trono de Inlgaterra con el nombre de Isabel I, marcando su ascensión al trono con un gesto fuerte: el restablecimiento de la Iglesia anglicana.

Siglos después, en todo el mundo se bebía el Bloody Mary. ¿Para honrar la memoria de los protestantes muertos o para celebrar la desaparición de la sanguinaria? Sobre esto no hay datos históricos.



martes, 20 de julio de 2010

El logo de KFC: Curiosidades de su entorno

martes, 20 de julio de 2010
Gracias a la excelente aportación de nuestro lector Siete en un comentario de la entrada KFC: El logotipo que se divisa desde el satélite hemos decidido dedicarle una entrada a modo de anexo para que pueda ser leido por la mayor cantidad de gente posible.

Lo que nos aporta es lo siguiente:

En efecto, el logotipo se observa a simple vista, desde unos 7.000 metros de altura. (Yo lo observé con el Google Earth).

De todas formas, si algún pasan por allí en persona, les recomiendo encarecidamente que no se detengan mucho tiempo y que no coman ni beban nada en esa zona, bajo riesgo de contraer un posible cancer o leucemia.

El motivo de ello es que a tan sólo 60 Km. al sur-suroeste se encuentra "Yucca Flat", una extensa zona de pruebas militares donde fueron detonadas unas 739 bombas nucleares (entre 1951 y 1992).

Si introducen "Sedan crater Nevada" en la casilla de búsqueda, podrán ver el enorme boquete que dejó una de esas explosiones. Y si desplazan la vista hacia el sur, el número de huellas nucleares resulta abrumador.

En efecto, lo hemos comprobado y tan solo decir que realmente la distancia es de 46,6 millas (74 km). Os incrusto el "como llegar" desde el gigantesco logo hasta el no menos impresionante cráter (de los tantos que hay a su alrededor), podéis utilizar el zoom para verlos correctamente.





Por otro lado, (y curiosamente) a unos 43 Km. al sur del logotipo de KFC, se encuentra la famosa "Área 51". Lo cual me lleva a pensar que ese logotipo tan grande (y que puede verse desde el espacio) en realidad fue fabricado para atraer a una clientela "extraterrestre".
Nuevamente, hemos revisado el dato con google maps y os dejamos el mapa para que podáis comprobarlos vosotros mismos. (Siendo otra vez quisquillosos hay que decir que la distancia real es de 39,6 millas, 62,7 kilómetros).



Muchas gracias a todos por vuestras aportaciones, es un honor recibirlas.

Fuentes:
Conocimientos de Siete, respaldados por
google maps



La curiosa verdad sobre Häagen-Dazs


¿Qué significa Häagen-Dazs? ¿De que país procede esta marca de helados? Estas preguntas han sembrado mucha confusión entre los amantes de los helados y semejantes, pero dicha confusión es totalmente normal ya que fue provocada por sus propios fabricantes.

La gente suele responder a lo último con paises tan variados como: Holanda, Dinamarca, Suecia, Finlandia, Noruega, Bélgica, Alemania, Luxemburgo, Liechtenstein, entre otros. Pero no, la siguiente revelación puede ser perturbadora para más de uno, ya que dicha marca es...¡estadounidense!. Veamos la curiosa historia.

Durante los años 20 del siglo pasado, un inmigrante de origen polaco en la ciudad de Nueva York llamado Reuben Mattus, decidió emprenderse en el negocio de la venta de helados, poco a poco y a punta de trabajo, también favorecido por estar en la "tierra de las oportunidades", su negocio fue creciendo hasta constituirse en su oficio de profesión y sustento, el objetivo original de Reuben era el de crear el helado de mejor calidad en el mercado, pero por razones de costes y de logística sus primeros años como lo heladero los llevó vendiendo un producto de genérica calidad. Por años más tarde, por el año 61, por fin encontró las condiciones para llevar a cabo su plan original, el cual era, el de crear el mejor helado, con los mejores ingredientes y la menor cantidad de inyección de aire posible (a mayor concentración de aire, menos sabor), decidió crear una nueva empresa, y por lo tanto necesitaba un nuevo nombre.


¿Cuál será el nombre adecuado?, se preguntaba una y otra y otra vez nuestro amigo el Polaco.

Por esos días apareció la idea de su esposa, basándose exclusivamente por la fijación y atracción que tenía el público Norteamericano para con las cosas traídas del viejo continente, por ejemplo: Queso francés, Vino italiano, embutidos alemanes, entre otras "delicatessen".

Su esposa le sugirió -¿Y por qué no hacer un nombre que parezca traído de Europa?-.

La idea invadió a Reuben y éste sin dudar aceptó, ya tenía una idea principal, pero todavía no tenía el nombre. De nuevo su señora, que por cierto se llamaba Rose, le sugirió la reconocida palabra "Häagen-Dazs", a lo cual él le preguntó.

¿Qué significa?-repuso él.

No lo sé - dijo ella - pero suena a Europeo - sentenció.

Pues sí, Häagen-Dazs es una palabra inventada por una polaca en los años sesenta. Después de asignar el nombre lo que hicieron fue ponerle a los tarros de helado un mapa de Escandinavia, y voilá, nació un mito de la cultura pop y de los amantes de la repostería.

Es una historia corta, pero real y amena, ¿A qué más de uno no sabía esto?.

Por último hay que decir que la compañía ya no es propiedad de la pareja Reuben y Rose, sino que fue comprada por la gigante Pillsbury en 1983, con el compromiso de mantener los estrictos parámetros de calidad del producto, una de las características definitorias de la compañía.


Plagiado vilmente Leído en: http://prismavenezuela.blogspot.com



lunes, 19 de julio de 2010

¿Como se fabrican las pipas peladas?

lunes, 19 de julio de 2010
La verdad, no soy muy pipero, pero siempre me ha llamado la atención encontrarme en los comercios bolsas con las pipas ya peladas. Creo que comerlas así es perder todo el encanto pero no nos desviemos del tema. Viendo como se come la gente las pipas normales, me vi en la obligación de descubrir el procedimiento que se utilizaba para venderlas ya peladas y quitarme por fin de la cabeza las teorías de viejecitas trabajando de sol a sol mordiendo las pipas y guardando el interior en bolsitas.

El mecanismo se ha escrito ya en muchos sitios por lo que no me costó nada encontrarlo pero intenté investigar un poco más y di tambien con las máquinas que se utilizan para conseguirlo.

El truco es el siguiente:

1. Se secan las semillas, lo que provoca la apertura de la mayor parte de las cáscaras.


El Tostador de frutos secos tuesta mediante aire caliente gran variedad de frutos secos enteros con o sin piel, así como productos especiales como láminas, palitos o granillo obteniendo un tueste homogéneo del producto de gran aroma.

2. Mediante un chorro de aire a presión, se lanzan las semillas contra una placa metálica, sustrayendo así el núcleo (la pipa pelada) de la cascara.


Estas dos máquinas hacen la misma función. La primera simplemente la separa por aire y la segunda tiene un sistema de dosificado y tolva.

3. Otra turbina de aire, separa el nucleo de las cáscaras, aprovechando la diferencia de peso entre ambos elementos, que provoca que lás cáscaras sean absorbidas y el nucleo caiga a una cubeta.De este procedimiento no he conseguido una imagen exacta, pero os pongo la de una descascarilladora de pipas, que será más o menos la que usen en este proceso.


4. Debido al que el proceso de separación por aire a presión no es 100% efectivo, posteriormente se utiliza una criba (clasificación por tamaño) para separar las pipas peladas con las que quedaron sin pelar.



5. Y por ultimo las embolsan y nos las sirven en tiendas de frutos secos y demás superficies comerciales.




domingo, 18 de julio de 2010

KFC: El logotipo que se divisa desde el satélite

domingo, 18 de julio de 2010
Hay cientos de lugares curiosos que podemos divisar a través de los satélites gracias a las tecnologías como google maps, pero este ha sido uno de los que mas me ha impactado.

Se trata del gigantesco logotipo de la empresa Kentucky Fried Chicken, que puede ser divisado fácilmente desde una altura muy considerable. El logotipo fue colocado en el desierto de Mojave, cerca de Rachel, Nevada. Está situado en la parte norte del desierto, en las siguientes coordenadas, 37,6460 °N, 115.7507 °W.

Yo no terminaba de creermelo, por lo que intenté localizarlo por mis propios medios y la verdad, fue sencillisimo. Simplemente hay que acceder a la página de google maps e introducir en la caja de texto lo siguiente: Rachel Nevada. En la imagen que aparece ya se divisa facilmente el logotipo del que hablamos y si acercamos el zoom, veremos completamente la curiosa construcción. Os dejo el enlace por si tenéis algún problema.

He aquí la traducción de cómo se describe el logotipo en la Wikipedia americana:

En 2006, KFC afirmaba haber hecho el primer logo visible desde el espacio exterior. KFC dice que "marcó el debut oficial de una campaña masiva global de cambio de imagen que modernizará 14.000 restaurantes KFC en más de 80 países durante los próximos años." El logotipo fue construido con 65.000 azulejos de 0,30 metros cuadrados, y se tardó 6 días en su construcción.

Por si os interesa, también os adjunto un video que muestra, en cámara rápida, como fue su proceso de construcción.







sábado, 17 de julio de 2010

Lo que no sabías de nuestro amigo el regaliz

sábado, 17 de julio de 2010
Su nombre significa "raíz dulce", "tallo dulce" y "hierba dulce" según los griegos, indios y chinos respectivamente. También es llamado orozuz.

Contiene un compuesto 50 veces más dulce que el azúcar de mesa, aunque algunos investigadores lo han colocado en más de 150 veces más dulce que la sacarosa.

Al igual que muchas raíces y hierbas, el regaliz, en varias formas, puede ser utilizado para tratar enfermedades médicas como úlceras bucales, úlceras pépticas o reflujo gastroesofágico por citar algunas. El regaliz entero también es recomendado en casos de tos, asma y otros problemas respiratorios, y en preparaciones tópicas se utiliza para eczemas y otros problemas cutáneos.

Fuera del ámbito médico, se puede utilizar también en la fabricación de zapatos y actuar como un afrodisiaco.

El regaliz se puede encontrar en mucho de nuestros vicios ya que por ejemplo, Mafco Worldwide, que presume de ser el fabricante líder mundial de regaliz, vende aproximadamente el 80% de su producto a la industria del tabaco para su uso en los cigarrillos aromizantes, puros y tabaco de mascar, principalmente. Fabricantes de bebidas también utilizan regaliz como agente espumante, como la Sambuca, licor de anís italiano, que combina en anis estrellado con el regaliz.

Twizzlers, probablemente el dulce de regaliz más extendido en el mundo, fue producido por primera vez en 1845. La compañía realizó en 1998 el regaliz más largo del mundo, midiendo 365,76 metros y pesando 45,3592 kg.

Durante el reinado de Eduardo I, un impuesto se incluyó en el regaliz para ayudar a reparar el Puente de Londres.

Ahora cuando vayáis a llevaros un trozo de este dulce a la boca, seguro que lo miraréis de una forma diferente conociendo la interesante historia que tiene detrás.



viernes, 16 de julio de 2010

¿Por qué son más baratos los seguros de coches blancos?

viernes, 16 de julio de 2010
No creo que sea el primero que se encuentra en una aseguradora y al ser preguntado por el color del coche, se te queda la cara de tonto cuando ves aumentar la cuota por tener un automóvil con un color "agresivo". ¿Todo esto tiene detrás algún estudio científico? Parece que sí.

El estudio, dirigido por el Centro de Investigación de Accidentes de la Universidad de Monash, Australia, ha confirmado la creencia popular de que el color blanco es la opción más segura cuando se trata de garantizar la mejor visibilidad posible de un vehículo en carretera, y por tanto, reducir al mínimo posible las probabilidades de una colisión con él.

Comparados con los automóviles blancos, los de color negro tienen un 12 por ciento más de riesgo de choque, seguidos de cerca por los grises con un 11 por ciento. Los vehículos plateados los siguen con un 10 por ciento, y luego los azules y rojos con un 7 por ciento.

Aunque otros colores en autos, como el crema, el amarillo y el beige están muy cercanos al nivel de seguridad del blanco, ningún otro color es más seguro que este último.

Utilizando datos de choques en carretera, los investigadores analizaron colisiones registradas entre 1987 y 2004 en Victoria y el oeste de Australia, que resultaran en muerte o lesiones, o en un vehículo debiendo ser remolcado.

Stuart Newstead, investigador principal del estudio, cree que éste es el que demuestra con mayor cantidad de datos el vínculo entre el color del vehículo y su riesgo de verse envuelto en una colisión. "En estudios internacionales anteriores, se examinó la visibilidad del vehículo y el color, pero no se tuvieron muy en cuenta otros factores que pudieran influir en el riesgo de choque, como por ejemplo los datos demográficos relativos al conductor".

Las conclusiones del nuevo estudio han demostrado que los vehículos pintados de blanco tuvieron, en las estadísticas de accidentes, el menor riesgo de colisión bajo todos los tipos de condiciones de luz. Y, a la inversa, los automóviles de colores oscuros o con un bajo contraste con respecto al entorno de la carretera, incluyendo plateado, gris, verde, rojo, azul y negro, estaban asociados a un mayor riesgo de choque, particularmente en las horas diurnas.

El vínculo entre el color de un auto y el riesgo de choque se comprobó que es más débil cuando el vehículo circula al atardecer o de noche. La explicación a esto, sugerida por la lógica, es que con esa baja luminosidad, el color del auto ya no se percibe apenas, con lo que no contribuye a una menor o mayor visibilidad. El uso de luces delanteras también anula en gran medida el efecto del color del auto cuando circula en la oscuridad.

Michael Case, ingeniero jefe de vehículos del Real Automóvil Club de Victoria, cree que los resultados del estudio son útiles para compradores de automóviles concienciados con la seguridad. Sin embargo, urge a los conductores a reconocer que otros factores, como los niveles de protección de los ocupantes del vehículo, y otras características relativas a la seguridad, tienen una influencia mayor que el color del automóvil en mejorar la seguridad. "Conducir un auto de color oscuro puede incrementar el riesgo de choque, pero eso está muy lejos de ser un factor influyente decisivo en la seguridad como sí lo es la conducta de la persona que está al volante".




jueves, 15 de julio de 2010

Made in Spain: Las tandas de penalties, invento gaditano

jueves, 15 de julio de 2010
Algo tan cotidiano y universalmente aceptado para deshacer empates como son las tanda de penalties, tienen su origen en Cádiz, en el Trofeo Carranza de 1962.

Algunos han querido atribuirle el mérito a alemanes o ingleses, pero lo cierto es que la tanda de penalties nació en la Tacita de Plata, en el verano de 1962, y su padre fue Rafael Ballester Sierra (Totalmente ajeno a este blog para los mal pensados). Contrariamente también a lo que se cree, no fue un encargo que nadie le hiciera a Don Rafael, sino que fue acto totalmente fortuito, como contaremos a continuación.

Ballester era por aquel entonces directivo del club cadista. Antes de su genial idea, los partidos que terminaban en empate, se resolvían de la forma que aún lo siguen haciendo los ingleses en la Copa: jugando un "replay". Esto, en un Trofeo que duraba tres días, era algo impensable, por lo que los partidos se prolongaban hasta que alguien deshacía la igualada. Se dieron casos en que los encuentros terminaban a las dos de la mañana, lo que suponía un aburrimiento total para los espectadores, y una auténtica paliza para los deportistas, que al día siguiente se veían en serias dificultades para poder afrontar la final.

Esto era precisamente a lo que parecía que estaba abocada la Final del Trofeo del año 1962, que enfrentaba a Barcelona y Zaragoza, y que acabó con el resultado de 0-0 tras los primeros noventa minutos.

Tras éstos, decidió jugarse una prórroga, que dio como resultado otro empate, esta vez a uno, merced a los tantos marcados por Marcelino en el 93 para los maños, y por Re en el 110 para los blaugranas.

El colegiado de aquel encuentro, el portugués Joaquim Campos, iba a consultar con capitanes y entrenadores para ver cómo resolver el entuerto, cuando apareció Ballester, que le sugirió al luso que se ejecutaran unos "lanzamientos de desempate" (Don Rafael no quería llamarlos penalties, pues éstos implicaban un castigo, que en este caso no aplicaba). Al contrario de cómo se hace ahora, cada equipo dispararía sus cinco lanzamientos de forma consecutiva, para luego dar paso al otro equipo. Tanto a los zaragozanos como a los catalanes les agradó la idea, dando así origen al primer desempate por penalties de la historia del fútbol.

Aún así, el desenlace fue la mar de curioso:

El Zaragoza fue el primer equipo que probó suerte. Duca, el excelente delantero maño, pasó a los anales como el jugador que inauguraba dichos lanzamientos, que además anotó para los suyos. Posteriormente tiraron Seminario (que acertó), Lapetra (que lo mandó al palo), Santamaría (que lo echó fuera) y finalmente el portero Yarza (que dejó el parcial en 3-0).

El Barcelona por tanto debía marcar al menos tres para no perder, y con cuatro se llevaría la copa de campeón. Comenzó disparando Benítez, que marcó el primero. A continuación le siguió Re, que también mandó el cuero a las redes. Luego Camps y Cubilla se encontraron con un sensacional Yarza, que rechazó sendos disparos. Por último, con toda la presión sobre él, Gracia hacía el empate. Era el colmo de los colmos: empate en el partido, empate en la prórroga, y empate en los lanzamientos de desempate.

Llegados a este punto, el colegiado decidió reunir a delgados, capitanes y presidentes de ambas escuadras, para dirimir como resolver la eliminatoria. Todas las partes acordaron repetir la tanda de lanzamientos. Esta fue el Barcelona el que empezó, y no pudo hacerlo mejor. Los cinco intentos acabaron en goles de Goywaerts, Benítez, Re, Gracia y Verges. Esto obligaba a los aragoneses a no errar ni una sola vez.

Empezaría la segunda tanda Duca, que como va dicho, comenzó la primera. Pero esta vez el delantero la manda fuera, acabando, a las primeras de cambio, con la esperanza de poder empatar de nuevo. El jugador cayó al césped, donde se lamentó por su fallo, mientras los barcelonistas festejaban el triunfo final, que tantos minutos les había costado, y que se resolvía por vez primera de forma tan singular.

Posteriormente, se recurrió a esta técnica para decidir ganadores, como en la Watney Cup de Inglaterra de 1970, en la que el Manchester United dejó en la cuneta al Hull City, por el mismo procedimiento.

La FIFA y la UEFA adoptarían años después este sistema para las eliminatorias en grandes torneos. El primer gran título decidido por los lanzamientos de penalties fue la Eurocopa de 1976, en la que Checoslovaquia se impuso a Alemania con el archiconocido penalti de Panenka.

Gracias Viento por volver a aportarnos un tema tan interesante como curioso.



martes, 13 de julio de 2010

Las claves de una gran bebida (I): El Tequila

martes, 13 de julio de 2010
¿Cuál es su origen?

Cuenta la historia que un día los indígenas de Jalisco, México, enfrentaban una fuerte tormenta y tuvieron que refugiarse en una cueva. Un rayo cayó sobre unos sembradíos de agave azul, produciendo un incendio. Al apagarse, el humo emanaba un delicioso aroma.

Uno de los presentes, salió, tomó un pedazo y al probarlo descubrió el dulce sabor que tenía. Así, comenzaron a hacer jugos con el nuevo producto.

Un día, un indígena hizo su bebida con el agave azul y lo olvidó durante varios días en su choza. Cuando volvió, un nuevo aroma envolvía su hogar, además, sobre el líquido se había creado una espuma blanca y espesa. Lo probó y tenía un sabor totalmente diferente y exquisito. Así, separó el jugo de la espuma, y lo guardó para su consumo.

La nueva bebida cambiaba la personalidad del indígena momentáneamente, por eso, el líquido fue considerado como un regalo de la diosa Mayahuel, quien alimentaba a sus hijos con sus cuatrocientos senos. Los hijos: los Centzon Totochtin, eran los patronos de la embriaguez.

Al llegar los españoles a tierras mexicanas, decidieron destilar la bebida y purificarla para obtener un producto más fuerte. Lo llamaron vino de mezcal y aguardiente, luego se elaborarían dos licores, uno llamado mezcal y otro tequila.

El tequila, cuya producción fue controlada por los conquistadores, se convirtió en una importante fuente de riqueza.

En los Siglos XVII y XVIII, fue producido con las bases sentadas a la elaboración de un producto característico de México.

Algunas curiosidades del tequila

Para que el licor sea llamado y considerado 100% tequila debe ser elaborado en México y no debe contener menos de 51% de agave azul. Los tequilas puros contienen 100%.

Tequila, es un nombre de origen controlado y reconocido a nivel internacional. Es tequila si se elabora en determinadas regiones de México, como las localidades de Amaitán y Tequila y otros municipios de Nayarit, Guanajuato, Tamaulipas y Jalisco.

El tequila se toma con sal y limón, porque en sus inicios era muy fuerte en alcohol y congéneres de destilación, así que al contacto con la boca era muy agresivo. Al consumir sal primero se producía mayor salivación en la boca, lo que calmaba un poco el efecto quemante de la bebida, y al chupar el limón, el jugo cítrico aliviaba el ardor que se sentía en la garganta.

Fuente:



lunes, 12 de julio de 2010

De la dinamita a los Premios Nobel

lunes, 12 de julio de 2010
Los Premios Nobel se otorgan cada año a personas que hayan hecho investigaciones sobresalientes, inventado técnicas o equipamiento revolucionario o hayan hecho contribuciones notables a la sociedad. Detras de ellos se encuentra una gran historia: La vida de Alfred Nobel.

Alfred Nobel fue un químico e ingeniero sueco nacido en Estocolmo en 1833.

Tras formarse en Rusia y en Estados Unidos regresó junto a su padre para ayudar en el negocio familar, la fabricación de explosivos.

En 1864 una explosión de nitroglicerina mataba a su hermano pequeño y a otras cuatro personas. A raíz de esta tragedia Alfred se concentró en la tarea de poner a punto un método para manipular con seguridad la nitroglicerina.

Para ello mezcló el explosivo líquido con un material absorbente (la tierra de diatomeas) consiguiendo un polvo que podía ser percutido e incluso quemado al aire libre sin que explotara. La mezcla resultante solo explotaba cuando se utilizaban detonadores electricos o químicos. Había nacido la dinamita.

El uso de la dinamita hizo que muchas tareas pertenecientes al mundo de la construcción y la minería progresaran a una velocidad sin precedentes en la historia.

Sin embargo, la dinamita también fue de gran utilidad en la fabricación de explosivos, aplicación que se generalizó hasta el punto de hacerle acreedor, aún a pesar de sus actividades humanitarias, del epíteto "mercader de la muerte".

Cuando murió, dirigía fábricas para la elaboración de explosivos en diversas partes del mundo. En su testamento legó la mayor parte de su fortuna (estimada en unos 9 millones de dólares) para crear una fundación que otorgara premios anuales entre aquéllos que durante el año precedente hubieran realizado el mayor beneficio a la humanidad en el campo de la física, la química, la medicina y la fisiología, la literatura y la paz mundial.

El elemento químico número 102 tuvo el honor de recibir su nombre; se le llamó Nobelio (No).

El testamento de Alfred Nobel fue el siguiente:

La totalidad de lo que queda de mi fortuna quedará dispuesta del modo siguiente: el capital, invertido en valores seguros por mis testamentarios, constituirá un fondo cuyos intereses serán distribuidos cada año en forma de premios entre aquéllos que durante el año precedente hayan realizado el mayor beneficio a la humanidad.

Dichos intereses se dividirán en cinco partes iguales, que serán repartidas de la siguiente manera:


Una parte a la persona que haya hecho el descubrimiento o el invento más importante dentro del campo de la Física.
Una parte a la persona que haya realizado el descubrimiento o mejora más importante dentro de la Química.
Una parte a la persona que haya hecho el descubrimiento más importante dentro del campo de la Fisiología y la Medicina.
Una parte a la persona que haya producido la obra más sobresaliente de tendencia idealista dentro del campo de la Literatura.
Una parte a la persona que haya trabajado más o mejor en favor de la fraternidad entre las naciones, la abolición o reducción de los ejércitos existentes y la celebración y promoción de procesos de paz.

Los premios para la Física y la Química serán otorgados por la Academia Sueca de las Ciencias, el de Fisiología y Medicina será concedido por el Instituto Karolinska de Estocolmo, el de Literatura, por la Academia de Estocolmo, y el de los defensores de la paz por un comité formado por cinco personas elegidas por el Storting (Parlamento) noruego. Es mi expreso deseo que, al otorgar estos premios, no se tenga en consideración la nacionalidad de los candidatos, sino que sean los más merecedores los que reciban el premio, sean escandinavos o no.

Fuentes:



domingo, 11 de julio de 2010

El origen del dólar, ¿Made in USA?

domingo, 11 de julio de 2010

Por extraño que pueda parecer, la actual moneda americana tiene su origen en el valle de Sankt Joachim en Bohemia, una región que en siglo XVI era la más grande de la antigua Checoslovaquia.

La historia se remonta a 1518. Sorprendido por una tempestad, un individuo del lugar se refugió en la primera cueva que encontró. Una vez dentro...¡milagro!, descubrió una mina de plata. En esa época, el emperador germánico, Carlos V, también rey de España con el nombre de Carlos I, principe de los Países Bajos y rey de Sicilia (no se aburría...), autorizó al señor del valle de St. Joachim a acuñar piezas de plata que se llamaron Joachimsthaler (thal significa valle en alemán).

Pero al poco tiempo, el emperador se arrepintió y sencillamente retiró al señor local el privliegio generosamente concedido e hizo acuñar monedas que llevaban sus propias armas. Por lo tanto, el Joachimsthaler de origen pasó a llamarse simplemente Thaler. Esta moneda oficial se fue imponiendo progresivamente en todos los territorios bajo dominio de Carlos V y sus sucesores de la casa de Habsburgo, sobre todo Felipe II, su hijo, origen de la rama española de la dinastía (En España y los Paises Bajos).

De este modo, al haber entroncado con España, la casa de Habsburgo reinó sobre gran parte de América del Sur, gracias también a las hazañas de los conquistadores Hernán Cortes, nombrado gobernador de Nueva España (hoy México) y Francisco Pizarro, que colonizó la zona litoral de Pacífico (Lo que corresponde apróximadamente al actual Perú y Ecuador).

Así pues, los conquistadores llegan a América con un tálero, thaler, que hacen acuñar en México y Perú. Igual que los holandeses habían transformado la pronunciación de thaler en daler, en América del Sur el tálero se convirtió en tólar, y rápidamente en su forma actual, dólar. Con el tiempo, ese nombre se dio a cualquier moneda, incluso en América del Norte, dónde se utilizaba la expresión Spanish dollar.

En 1785, más de dos siglos después del desembarco del tálero, el Gobierno norteamericano decidió acuñar su propia moneda y, naturalmente, la llamó dólar. El Spanish dollar se siguió utilizando en America del Norte hasta 1794, año en el que los distintos estados se pusieron de acuerdo para acuñar y poner en circulación las nuevas monedas.

En resumen, desde el valle de St. Joachim en Bohemia hasta después de la Guerra de la Independencia norteamericana (1775-1783), el thaler se había convertido en dólar tras un curioso recorrido.



sábado, 10 de julio de 2010

La revolución del espagueti y su aplicación en la construcción

sábado, 10 de julio de 2010
¿Por qué un espagueti seco no se parte en dos, sino en tres, cuatro y a veces incluso en diez trozos cuando lo curvamos? Este misterio ha preocupado a muchas grandes mentes, incluida la del Premio Nobel Richard Feynman, desde los inicios de la historia de la pasta. Y ahora ha sido finalmente explicado por los físicos Basile Audoly y Sébastien Neukirch del Laboratoire de Modélisation en Mécanique de la Universidad Pierre et Marie Curie de París (Francia).

Cuando coges un espagueti seco por ambos lados y empiezas a doblarlo, incrementas su curvatura. Una vez que la curvatura es demasiada para el espagueti, éste se rompe por su punto más débil. La ruptura inicial transmite la curvatura por medio de ondas a las dos mitades, haciendo que éstas se muevan hacia delante y hacia atrás. Intuitivamente, podrías pensar que estas ondas van haciéndose más flojas y poco a poco desaparecen, hasta que las dos mitades del espagueti vuelven a su estado normal. Pero, de acuerdo con Audoly y Neukirch, sucede exactamente lo contrario.

Para modelar la ruptura del espagueti, utilizaron una ecuación diferencial que fue desarrollada por Gustav Kirchhoff en 1850. La cantidad desconocida de esta ecuación es la curvatura que tienen las dos mitades después de la primera ruptura. Cuando encontraron la solución, Audoly y Neukirch se dieron cuenta de que más que reducirse y desaparecer, la curvatura se incrementa en algunos puntos de las dos mitades, causando un número indeterminado de rupturas en los puntos débiles del espagueti. Estas rupturas mandan a su vez sus propias ondas, empezando así una reacción en cadena, que lleva a una avalancha de rupturas.

Esta investigación puede ser un poco ofensiva para los amantes de la pasta, al fin y al cabo, ¿quién quiere comer espaguetis cortos?, pero tiene una serie de aplicaciones importantes en otros terrenos. Las vigas, largas y finas cual espagueti, son frecuentemente utilizadas por la naturaleza y por el hombre para dar soporte a estructuras más pesadas; piensa por ejemplo en las patas de las arañas o en las construcciones de acero que sostienen los puentes o los rascacielos. La ruptura del espagueti es una buena ilustración de cómo las vigas se comportan bajo la denominada “fatiga”, algo que los ingenieros necesitan saber para impedir que las estructuras se vengan abajo.

La pasta nos puede ayudar a prevenir muchos desastres.

Fuente:



viernes, 9 de julio de 2010

Inhibidores de frecuencia: Curiosa y fácil explicación

viernes, 9 de julio de 2010
El objetivo de hoy es hablar un poco de los famosos inhibidores de frecuencia, qué hacen, y cómo actúan, y de una forma bastante curiosa. Nada excesivamente técnico ni preciso. Sólo de carácter divulgativo por lo que no diré nada que algunos de vosotros desconozcais.

Lo primero es decir que el concepto bajo el que funciona un inhibidor de frecuencias es muy sencillo de comprender. Tanto, que los niños lo asimilan y emplean (el concepto, no el aparato) desde muy jóvenes. La cuestión es que existe alguien que quiere hacer llegar información a un destinatario, y una tercera persona empeñada en que el destinatario se quede sin la información.

Veamos el caso con los niños, que yo creo que a todos nos sonará esta situación. Fulanito quiere decir algo, y Menganito no quiere que lo diga. ¿Qué hace Menganito? En todo acto de comunicación hay un emisor, un destinatario y un mensaje, por lo que hay varias alternativas.

1. Le tapa la boca a Fulanito. (Actuación sobre emisor)
2. Le tapa los oídos al que no quiere que lo escuche, o si es él el que no quiere escuchar se los tapa a sí mismo. (Actuación sobre destinatario)
3. Si ni 1. ni 2. está a su alcance se pone a hablar fuerte o gritar y hacer ruido para que nadie entienda lo que dice. (Actuar sobre el mensaje)
Si la comunicación fuese por cable, como en el teléfono, también se podría cortar el cable o desenchufarlo, que no deja de ser otra forma de cortarlo. (Actuación sobre el canal, otro elemento indispensable en la comunicación)

El problema trasladado a un escenario bélico sería similar. El que quiere decir algo es el atacante que tiene el emisor para explotar la bomba. El destinatario es la bomba. Los que no quieren que la bomba se entere de nada son los soldados que están patrullando. El procedimiento que seguirían sería el similar al del niño.

1. Le tapan la boca (se cargan) al detonador o al encargado de detonar la bomba. Problema: No sabes donde está por lo que no puedes hacerlo.
2. Le tapas los oídos (desactivas o aislas electromagnéticamente) a la bomba. Problema: Tampoco sabes donde está por lo que no puedes hacerlo.
3. Como ni 1. ni 2. está a tu alcance, y no puedes cortar el canal porque va por el aire y no lo puedes cortar solo queda el recurso de hacer ruido para que la bomba no entienda nada.
Y eso es lo que es un inhibidor de frecuencias, un cacharro que hace mucho ruido electromagnético.

Tanto las personas, como los receptores electrónicos, para poder interpretar correctamente lo que reciben es necesario dos cosas. La primera, que la potencia de lo que nos llega sea superior a una potencia umbral, por debajo de la cual no podríamos oir nada ni un receptor funcionar. Esa potencia umbral se llama sensibilidad. La segunda es que la señal que recibimos tenga una relación señál a ruido superior a otro umbral, si no, tampoco entenderemos nada. Pasaría lo que en una discoteca, que con todo el ruido que hay no puedes ni entender al que te está gritando en tu misma oreja, porque aunque la señal sea más alta de lo necesario, si el ruido también es alto, puede que la comunicación sea imosible.

Por el nombre, se podría pensar que un inhibidor de frecuencia, lo que haría es eliminar una cierta frecuencia, o mejor dicho, la señal de una determinada frecuencia, pero como eso es desde el punto de vista práctico imposible en un escenario así, lo que hace un inhibidor de frecuencias es crear una especie de ambiente electrónicamente discotequero que haga que todo lo que se encuentra cerca de él, no pueda entender nada de lo que cualquier otro le diga.

Así pues, un inhibidor lo que hace es emitir ruido con una gran cantidad de potencia en las frecuencias que quiere inhibir. Los dos parámetros más importantes serían el nivel de potencia máxima que emite, que hará que el radio de acción del inhibidor sea mayor y el rango de frecuencias que utiliza. Cuanto mayor sea este rango, más frecuencias contamina. El límite de este rango lo fija la tecnología, que es lo mismo que fija la frecuencia que usará el emisor, por lo que el que esté más desarrollado tecnológicamente, tiene las de ganar en este juego.

En la práctica, los detonadores remotos se hacían hace años del tipo de mandos de televisión, o de garaje. Como limitación principal es que no te puedes ir muy lejos a detonarlo porque si no, la señal no superará la sensiblidad del receptor. Lo que está de moda ahora, es la detonación por móvil. Te permite activar la bomba desde cualquier parte del mundo, porque ya se han encargado otros (las operadoras de móvil) de garantizar que la señal llegue al destino con la potencia necesaria. Esto sería a nivel, digamos, terrorista. Si hablamos de ejércitos, es complicado decir como utilizan este tema por que todo es top secret, pero a bote pronto se me ocurre que los más desarrollados tecnológicamente podrían usar la detonación desde satélite a muy alta frecuencia ya que si la frecuencia es más alta que la que es capaz de utilizar la otra parte, no se la podrá “inhibir” y por satélite porque suelen ser lugares bastante seguros por su situación.

Fuentes:



jueves, 8 de julio de 2010

Johnnie Walker: El hombre que caminó alrededor del mundo

jueves, 8 de julio de 2010
Hoy pensaba contaros la curiosa vida de un gran hombre, Johnnie Walker, clarísimo ejemplo de ambición en la vida. Vida que se encuentra detrás de la marca más popular del mundo si de whisky escocés hablamos, pero no va a ser así o por lo menos no seré yo quien lo cuente.

He encontrado alguien que lo puede hacer mejor y de una forma más curiosa. ¿Os suena el nombre de Robert Carlyle? Seguramente si digo que es el protagonista de la genial película Full Monty muchos le pondréis ya cara.

Pues bien, se trata de un vídeo subtitulado en español, rodado en una sola toma (aunque tuvieron que realizar 40 intentos para conseguirlo), donde se explica de una forma sencilla, eficaz, y sobre todo, muy clara, la vida de la familia Walker.

Se titula igual que nuestra entrada o mejor dicho, nuestra entrada homenajea al vídeo: Johnnie Walker: El hombre que caminó alrededor del mundo. Espero que lo disfrutéis.





Fuentes:



miércoles, 7 de julio de 2010

Nuestro ojo dominante: ¿Cómo detectar cuál es?

miércoles, 7 de julio de 2010
Por si no lo conocíais, todos nosotros tenemos un ojo dominante o director, con una mayor agudeza visual, que es el encargado de dominar la visión de profundidad, mientras que el otro se encarga de la visión periférica y espacial principalmente haciendo llegar entre ambos una imagen tridimensional a nuestro cerebro.

Hay varias técnicas curiosas para saber cuál es nuestro ojo dominante. La más usada requiere únicamente una hoja de papel, un folio sería suficiente. En él, hay que realizar un orificio en su centro de unos 2 centímetros de diámetro. Debemos tomar el papel con ambas manos, colocando cada una en un extremo del mismo. Buscaremos un punto de referencia, un objeto que se encuentre a media distancia (1-1'5 metros es apropiado). Con los brazos extendidos en dirección al objeto, miraremos a través del orificio del papel con los dos ojos abiertos hasta localizar el objeto.


Posteriormente, y sin cerrar ningún ojo, iremos acercando el papel hacia la cara, sin dejar de observar el objeto. Misteriosamente, observaremos como conducimos involuntariamente el agujero del papel hacia uno de nuestros ojos, que a partir de entonces, sabremos que es nuestro ojo director o dominante. Si repitiésemos la prueba veríamos que siempre saldría el mismo resultado e incluso si quisieramos forzar la situación intentando llevar el orificio del papel al ojo contrario, en algún instante dejaríamos de ver el objeto. La siguiente imagen resume el proceso.


Este ojo es el más adecuado para una mejor observación a través de microscopios, mirillas de las cámaras fotográficas, etc.

Mi ojo dominante es el derecho, ¿Cuál es el vuestro? Intentemos abstenernos de citar cualquier otro tipo de ojos que no se encuentre en nuestro rosotro, aunque será prácticamente inevitable.

Fuente:



 
Design by Pocket Free Blogger Templates created by The Blog Templates