viernes, 29 de octubre de 2010

All Hallow's Even: El origen de Halloween

viernes, 29 de octubre de 2010
Celtas, romanos, cristianos... muchas culturas han aportado su granito de arena a una fiesta que hunde sus raíces en un pasado remoto y que ha conservado siempre un rasgo fundamental: la fascinación por la muerte.


La fiesta de Halloween es una mezcla de tradiciones más o menos antiguas y tiene su propia versión en muchos países. Sin embargo, el Halloween que se ha hecho famoso es el que celebran los norteamericanos. Gracias a las películas de Hollywood ellos han sabido exportar como nadie una fiestividad cuyas señas de identidad han terminado siendo los disfraces y las calabazas y, claro está, el culto al terror y a la muerte.

En realidad, los primeros en celebrar la fiesta de Halloween fueron los celtas (antiguos habitantes de Gran Bretaña) que hacían su "primitivo Halloween" cada 31 de octubre. Por aquel entonces la fiesta estaba dedicada a un tal Samhain (su Dios de los muertos) y era la noche en que los druidas de la tribu se ponían en contacto con los difuntos. Esa noche marcaba el final del año y toda la comunidad lo celebraba por todo lo alto.

Pero con la invasión de los romanos, la cultura celta se mezcló con la de los césares y la religión de los druidas terminó por desaparecer. Sin embargo, la "fiesta de los muertos" no se perdió del todo. Los romanos la fusionaron con sus Fiestas de Pomona, dedicadas a la Diosa de la fertilidad, y así el primitivo Halloween de los celtas pudo sobrevivir al paso del tiempo conservando gran parte de su espíritu y algunos de sus ritos.

Con la expansión del cristianismo por Europa la fiesta se encontró un nuevo rival. Primero el Papa Gregorio III decidió trasladar la "Fiesta de Todos los Santos" al 1º de Noviembre y poco más tarde, en el año 840, Gregorio IV ordenó que celebración fuera universal. Y como fiesta mayor que era requería una "vigilia" para preparar la fiestorra. Precisamente el 31 de octubre, la "noche de los muertos" de los antiguos celtas. Esta vigilia se llamó "All Hallow's Even" (Vigilia de Todos los Santos) y con el paso del tiempo su importancia fue creciendo y su pronunciación fue cambiando hasta terminar en lo que hoy conocemos como "Halloween".

Pese al cúmulo de coincidencias y de ritos superpuestos, la fiesta cristiana conservó guiños de la versión ancestral iniciada por los celtas y continuó siendo para siempre la noche de los que tributaban un especial interés por la muerte y el más allá.




martes, 26 de octubre de 2010

El verdadero tamaño de África

martes, 26 de octubre de 2010
África es el segundo continente más grande de nuestro planeta (el primero es Asia) pero es algo complicado darse cuenta de su verdadero tamaño sin poder compararlo con algo más conocido y cercano. Hoy os vamos a mostrar una curiosa ayuda visual que hemos encontrado para facilitar un poco este trabajo. Sorprende, por ejemplo, comprobar que sólo la Isla de Madagascar es ya tan grande como todo Reino Unido. Aquí os dejo la imagen, podéis pinchar sobre ella para verla más grande.


También os dejo la infografía completa donde aparece dicha imagen entre otras y diversos datos de comparativas.




lunes, 25 de octubre de 2010

Volviendo a nacer: La historia de los desfibriladores

lunes, 25 de octubre de 2010
Después de escuchar esta mañana que un jugador de fútbol cayó ayer desplomado mientras disputaba un partido y que salvó la vida gracias a la rápida actuación médica pero sobre todo, a la disponibilidad en el mismo estadio de un desfibrilador, mi amigo y yo (tan curiosos como siempre) nos hemos preguntado por la primera vez que se usó este tipo de aparatos que a tantas personas les ha dado una segunda oportunidad. He aquí su historia...

El concepto de desfibrilación eléctrica fue acuñado en 1899 por Prevost y Batelli, después de notar que grandes voltajes aplicados a través del corazón de un animal podían poner fin a la fibrilación ventricular. 

Hooker, Kouwenhoven y Langworthy realizaron varios estudios, financiados por la industria eléctrica que estaba interesada en patrocinar estos estudios puesto que sus trabajadores se exponían a gran riesgo de muerte por descarga eléctrica de alto voltaje; en 1933 publicaron un informe de desfibrilación interna exitosa aplicando corriente alterna a un animal. El primer reporte de una desfibrilación exitosa en un humano lo realizó Claude Beck en 1947, aplicando directamente 60 Hertz de corriente alterna (c.a.) en el corazón de un paciente a quien se le estaba practicando una cirugía

Kouwenhoven realizó múltiples estudios en perros, entre 1950 y 1955, aplicando desfibrilación mediante electrodos puestos en la pared torácica. En 1956, Zoll desfibriló un ser humano de la misma manera. A partir de estos trabajos, Edmark - Lown y asociados descubrieron que los desfibriladores de corriente continua (c.c.) o desfibriladores de impulso, eran más efectivos y producían menos efectos secundarios que los desfibriladores de c.a. La administración de corriente continua fue perfeccionada durante la década de 1960.

En 1967, Pantridge y Geddes reportaron un aumento en el número de pacientes que sobrevivieron a paros cardíacos extrahospitalarios, mediante el uso de una unidad móvil de cuidado coronario equipada con un desfibrilador de c.c. de alimentación por batería. Hacia 1970 fueron diseñados instrumentos experimentales internos y externos para detectar la fibrilación ventricular automáticamente. En 1979 Diack y sus colaboradores describieron la experiencia clínica y experimental con el primer desfibrilador automático externo (DEA). El primer desfibrilador interno automático se implantó en un ser humano en febrero de 1980. En ese mismo año, Weaver y asociados informaron que la iniciación rápida de RCP (Reanimación Cardiopulmonar) y desfibrilación precoz, podrían restaurar un ritmo organizado y hacer que se recuperara la conciencia, a pacientes que sufrían paros cardíacos fuera del hospital. También en 1980, Eisenberg y Copass publicaron un aumento en la tasa de supervivencia de pacientes con paros cardíacos desfibrilados por Técnicos Médicos de Urgencias (TME) especialmente capacitados, comparada con la de pacientes que recibieron el tratamiento usual y rutinario, que incluía RCP y transporte al hospital.

Las máximas tasas de reanimación por desfibrilación se han obtenido cuando el paro ha sido presenciado y/o la desfibrilación se realiza en el término de minutos. Gracias a los DEA se han venido implementando progresos en la transición de ondas monofásicas a bifásicas, que los hace más livianos, más pequeños y especialmente más seguros y efectivos.





jueves, 21 de octubre de 2010

¿Cómo se añaden las perfectas rayas de colores en las pastas de dientes?

jueves, 21 de octubre de 2010
¿Alguna vez te has preguntado cómo se forman las líneas de colores del dentífrico tan perfectas al salir del tubo? 

Aunque mucha gente lo piense, no se trata de compartimentos separados. El tubo se llena de pasta de dientes, que normalmente es blanca, hasta un cierto nivel. Llegados a ese nivel, el secreto se encuentra en unos distribuidores separados como los de la siguiente imagen. Todos los materiales pasan exhaustivos controles en los laboratorios para mantener el mismo nivel de viscosidad, lo que evita que se mezclen entre ellos.


Una vez que conocemos cómo se ha introducido en el tubo, ahora el dilema está en cómo conseguir que salgan al mismo tiempo, y de manera tan perfecta y fina. La boca del dentífrico, no es solamente un agujero en su parte final; por el contrario, consta de un compartimento que circunda todo el tubo en el último centímetro superior del mismo. 

El compartimento consta de unos agujeritos en la parte de la boca del tubo, casi a la salida, con tantos agujeros como rayas queramos que haya en la pasta de dientes. Al presionar el tubo, hacemos que la pasta blanca entre en ese compartimento exterior y salga por los agujeritos, pero esta vez ya coloreada. 


Como curiosidad, podemos desarreglar el sistema que forma las rayas si presionas el tubo en la parte de la boca de salida, ya que fuerzas al mecanismo que tinta, a ir a través del compartimento principal. De la misma forma, puedes masajear el tubo para que se mezclen las dos sustancias. Y si alguna vez las rayas dejan de formarse en la pasta, sumerge el tubo dentífrico en agua caliente para “reanimar” el colorante. 

Un poco de historia de las curiosas rayas

La patente del método de producir las rayas en tubos de dentífrico, fue comprada por la empresa Lever, por aquel entonces llamada Unilever, a un inventor de Nueva York en 1958, Leonard Lawrence Marraffino, que lo había inventado con el propósito de asemejarlo a un palo de caramelo. Los números de las patentes fueron el 2.789.731 en Estados Unidos y el 813.514 en Reino Unido. 

En 1960, la pasta de dientes con rayas se introdujo en el mercado americano. Unos años más tarde, en 1965, se introdujo como la marca “Signal” en Reino Unido y posteriormente en Europa. La pasta de dientes a rayas lideraba el 8% del mercado en su segundo año a la venta, y desde entonces fue decayendo. 

Empezaron a haber problemas técnicos, y en 1961, uno de cada tres tubos dentífricos no producía bien las rayas de colores. Lever empezó a estar por detrás de sus competidores, Procter, Colgate e incluso Beechams, que acababa de sacar la línea Macleans, símbolo de blancura. 

Algunos diseños de la boca del dentífrico que estaban preparados para producir diferentes clases de lineas con diferentes colores, causaron una gran disputa entre marcas registradas a finales de los 90. Colgate Palmolive, en su patente estadounidense 4.969.767, creo un sistema para combinar dos clases diferentes de líneas de color. 

Aunque las rayas están principalmente por un efecto óptico y para diferenciar los distintos tipos de pastas de una misma marca según su función principal(blanqueante, anti sarro, etc.), contienen diferentes componentes. Por ejemplo, el tubo principal contiene la base, la línea roja añade flúor, y la otra línea le otorga el fresco aroma a menta. Aun así, no es necesario que los componentes tengan que estar separados. 

Muchas gracias @hkappra por proponernos este tema a ballesterizar.


Visto en:
www.taringa.net
www.youtube.com



miércoles, 20 de octubre de 2010

¿Cuándo surgió el término "virus informático"?

miércoles, 20 de octubre de 2010
Los orígenes de los virus informáticos actuales se remontan a 1949, cuando el pionero informático John von Neumann presentó un artículo sobre la "Teoría y organización de autómatas complejos", en el que postulaba que un programa informático podía reproducirse. Los empleados de los Laboratorios Bell dieron vida a la teoría de Von Neumann en la década de 1950 mediante un juego que ellos bautizaron como "Core Wars". El juego consistía en que dos programadores soltaban "organismos" de soporte lógico y observaban como competían por tomar el control del ordenador.

Curiosamente, dos libros de ciencia ficción contribuyeron en la década de 1970 a difundir el concepto de un programa replicante. Las obras tituladas Shockwave Rider, de John Brunner, y Adolescence of P-1, de Thomas Ryan, reproducían dos mundos en los que una pieza de soporte lógico podía transferirse a sí misma de un ordenador personal a otro de manera inadvertida. En el mundo real, Fred Cohen expuso la primera definición rigurosa de un virus informático en su tesis doctoral de 1986. Cohen acuñó el término "virus" en aquel momento y se le considera el padre de lo que hoy en día se conoce como virus informático, lo que él resume en una frase como "un programa capaz de infectar a otros programas modificándolos para insertar una versión de sí mismo, tal vez incluso modernizada".

En las raras ocasiones en que los medios de comunicación mencionaron el término a mediados de la década de 1980, el concepto en su conjunto se trató como un confuso problema teórico. La percepción de los virus en los medios dio un giro radical a finales de 1988, cuando un estudiante universitario llamado Robert T. Morris soltó el infame "Gusano de Internet". Desde entonces, a los periodistas les entusiasma cada vez más la idea de que una pequeña pieza de soporte lógico tumbe a las grandes computadoras centrales del mundo.

Como última curiosidad, para terminar, el padre del estudiante Robert T. Morris participó en los primeros juegos "Core Wars", por lo que todo queda en familia.

Fuente: http://vmyths.com



martes, 19 de octubre de 2010

¿Por qué es tan caro el oro?

martes, 19 de octubre de 2010

El oro es un metal que presenta unas propiedades muy interesantes: no reacciona fácilmente con otras sustancias, por lo que no se deteriora con facilidad, no se oxida (lo que al fin y al cabo significa que no reacciona con el oxígeno), es un gran conductor de la electricidad y el calor, y es fácilmente maleable, cosa que permite hacer con él hilos, láminas y joyas de formas increíbles. Sin embargo, no es todo esto lo que le da su valor.
¿Qué lo hace tan caro? No sirve para comerlo, ni para beberlo, y no quita el frío… ¿Entonces? El principal motivo de que el oro sea tan caro, es el acuerdo de todos de que este metal es algo valioso. Su belleza hace que sin dudarlo cambiemos objetos y dinero por un pedazo de éste. Además, es un material escaso. Si fuera fácil encontrarlo, nadie compraría el oro que otros quisieran vender. De hecho, si fuera algo abundante no sería especial a nuestros ojos. Lo escaso, lo exclusivo, es más caro. Nadie se pone a presumir con un guijarro de la playa colgado del cuello (y eso que también pueden ser muy bonitos). Es pues el acuerdo entre todos y su escasez, lo que hacen del oro un material tan valioso.

Desde la antigüedad, el oro ha sido un material muy preciado. La máscara de Tutankamon es quizá el objeto de oro más famoso del mundo. La tumba de Tutankamon fue descubierta en 1922 por Howard Carter. Esta máscara y algunos de los tesoros de oro más preciosos de la historia fueron encontrados en su interior.
La palabra tesoro procede del latín thesaurus , y ésta a su vez del griego, thesaurus. No es extraño comprobar que la palabra “oro” (aurum, aurus) forma parte de este término.

Gracias A. Gutiérrez por enviarnos este artículo para su publicación.



lunes, 11 de octubre de 2010

¿Cómo funcionan los CD regrabables?

lunes, 11 de octubre de 2010
Esta es una de las cuestiones que alguna vez me había planteado pero nunca me había dignado a buscar su respuesta. Pues bien, llegó el momento y aquí está la clave por la que podemos grabar una y otra vez sobre estos medios de almacenamiento.

Para empezar, debemos saber que todos los CD y DVD funcionan en virtud de señales grabadas en el disco que se muestran más oscuras que el fondo. Éstas señales se leen al proyectar sobre ellas un láser y medir la luz reflejada. En el caso de los CD o DVD estampados (los que se compran en establecimientos de música o cine), estas marcas consisten en "surcos" reales grabados físicamente en la superficie del disco. En los discos compactos grabables (CD-R), el láser de escritura del ordenador quema marcas permanentes en la capa de polímero tintado que hay dentro del disco.

Los CD regrabables (CD-RW) se fabrican de manera similar, salvo que la alteración de la superficie grabable es reversible. La clave radica en una capa de material que cambia de fase, una aleación compuesta por plata, indio, antimonio y teluro. A diferencia de la mayoría de sólidos, esta aleación puede exisitr en cualquiera de los dos estados: cristalino (cuando los átomos se encuentran muy apretados siguiendo una disposición rígida y organizada) o amorfo (cuando los átomos ocupan posiciones aleatorias). El estado amorfo refleja menos luz que el cristalino.

Cuando la aleación se calienta con un láser hasta casi 700º C, pasa de la fase cristalina original al estado amorfo, que entonces se revela como una mancha negra cuando se reproduce el disco. Estas manchas pueden borrarse empleando el mismo láser (con una intensidad menor) para calentar el material hasta una temperatura aproximada de 200º C. Este proceso devuelve la aleación al estado cristalino, lo que permite una nueva grabación.

La mayoría de los fabricantes de CD regrabables sostiene que estos discos pueden reescribirse hasta 1000 veces y que tendrán una duración aproximada de 30 años.

Fuente: Cuestiones curiosas de ciencia



jueves, 7 de octubre de 2010

Las claves de un gran invento(IV): El cepillo de dientes

jueves, 7 de octubre de 2010
El cepillo de dientes como lo conocemos hoy en día no se inventó hasta 1938. Sin embargo, las primeras formas del cepillo de dientes se conocieron hace más de 5000 años, sobre el 3000 a.C. Las civilizaciones antiguas utilizaron un "palo de masticar", que consistía en una ramita delgada con un extremo deshilachado. Estos "palos de masticar" se frotaban contra los dientes, para eliminar los restos de comida, como en la actualidad.

El cepillo de dientes, similar al utilizado hoy en día, no se inventó hasta 1498 en China. Las cerdas eran en realidad los gruesos pelos rígidos tomados de la parte posterior del cuello de cerdos y jabalíes y estaban atados a los mangos de hueso o de bambú.

Alrededor de 1780, se produjo la primera fabricación masiva de cepillos de dientes gracias William Addis del Clerkenald, Inglaterra. Addis, y más tarde, sus descendientes, fabricaron los mejores cepillos ingleses, donde los mangos fueron tallados en huesos de ganado vacuno y las cerdas naturales porcinas fueron colocadas en agujeros realizados en el hueso sujetadas mediante alambre delgado.

A principios de 1800, los cepillos de cerda natural ya eran de uso general en Europa y Japón. En 1857, HN Wadsworth fue acreditado como el primer estadounidense en realizar una patente de cepillo de dientes (número de patente 18.653, el 7 de noviembre de 1857). Casi treinta años después, en 1885, la empresa de Florencia, Massachusetts, Pro-grafía-lac-TIC, en asociación con el Dr.Rhein, comenzó a producir el cepillo Pro-grafía-lac-TIC para el marketing de masas en los Estados Unidos.

Las cerdas naturales porcinas se utilizaron hasta 1938, fecha en la que Dupont de Nemours, una empresa multinacional de origen estadounidense dedicada fundamentalmente a varias ramas industriales de la química, sustituyó las cerdas naturales por otras sintéticas de nylon

Sorprendentemente, el cepillo de dientes no tuvo gran repercusión en la sociedad norteamericana hasta que los estadounidenses fueron influenciados por los hábitos de higiene disciplinada de los soldados durante la Segunda Guerra Mundial. Éstos últimos comenzaron a preocuparse cada vez más con la práctica de una buena higiene bucal y rápidamente se adoptó el cepillo de dientes de nylon como un utensilio básico en todos los hogares.

Fuentes:



miércoles, 6 de octubre de 2010

¿Por qué se nos arrugan los dedos en el agua?

miércoles, 6 de octubre de 2010
Las arrugas de los dedos siempre me han parecido un buen indicador para decirnos que debemos salir ya del agua o nos empezarán a salir escamas en brevemos momentos, pero,

¿Cuál es la verdadera razón de las arrugas tras un periodo prolongado en el agua?

La mayoría de los biólogos sugieren que la capa externa dura de la piel compuesta por células muertas de queratina es la responsable. La queratina es una proteína que se encuentra en el cabello, las uñas y la capa más externa de nuestra piel.

Nuestra piel se compone de tres capas:

  • El tejido subcutáneo es la capa más profunda. Contiene las grasas y el tejido conectivo, junto con los grandes vasos sanguíneos y nervios.
  • La dermis es la capa media. Contiene los vasos sanguíneos, los nervios, las raíces del pelo y glándulas sudoríparas.
  • La epidermis es la capa superior. Ayuda a evitar la evaporación del agua del cuerpo y para proteger a las capas internas de cualquier daño.

La epidermis a su vez se compone de cuatro capas:
  • El estrato córneo
  • Capa granular
  • Capa de células escamosas
  • Capa de células basales
El estrato córneo es la capa externa de nuestra piel, la parte que podemos ver y sentir. Esta es la capa donde se encuentran con las células de queratina muertas.

Mientras una persona se encuentra plácidamente en la piscina o en una bañera durante mucho tiempo, las células de queratina muertas cominezan a absorber el agua. Esta absorción hace que la superficie de la piel se hinche, pero como la capa externa está estrechamente unido al tejido vivo, para compensar el aumento de superficie, la piel se arruga.

Entonces, ¿por qué sucede esto en las manos y los pies y no en otras partes del cuerpo? 

Esto es debido a que las manos y los pies tienen la capa más gruesa de células de queratina muertas. Nuestras manos y pies están sometidos a una gran cantidad de desgaste por lo que necesita mayor grosor para evitar daños. Imaginaros si la palma de nuestras manos tuviera la piel tan delgada como la de la espalda, el simple hecho de jugar al baloncesto se convertiría en un acto de vida o muerte.

Fuentes:
http://www.loc.gov
http://innerbeautyltda.comyr.com
http://respondones.com



martes, 5 de octubre de 2010

¿Cómo se mide la audiencia de los programas de TV?

martes, 5 de octubre de 2010

¿Nunca os habéis planteado cómo pueden saber que un determinado programa lo han visto 3.660.000 de espectadores y que ese número corresponde al 18'8% de la gente que estaba viendo la televisión (share)?

¿Acaso alguien nos ha preguntado qué vimos anoche y cuánta gente estaba con nosotros en esos momentos? Todas estas preguntas tienen como respuesta un denominador común: Los audímetros.


¿Qué es un audímetro?

Un audímetro es un aparato que sirve para medir la cantidad de espectadores que ven la televisión, de forma ininterrumpida y anónima.

La empresa encargada de hacer estas mediciones se llama TNS Sofres España es el séptimo país en número de audímetros.


¿Quién los tiene?

En teoría, sobre unos 3.845 aparatos instalados en hogares, que representan los gustos de más de 9.019 personas que viven en ellos, y que se extrapolan a los casi 45 millones de personas que viven en este país. ¿Por qué esto es así? Se supone que es pura ciencia, concretamente, Estadística. Todos los habitantes de España somos algo que esta ciencia denomina Universo (45 millones de personas), de entre los cuales se obtiene una Muestra (9.019 personas). Se supone que a partir de una determinada cifra de medición, los datos comienzan a repetirse una y otra vez, con lo cual, midiendo sólo la Muestra, es posible obtener un resultado bastante aproximado de la tendencia, y por lo tanto, los datos se obtendrían extrapolando esa Muestra a toda la población. El margen de error de estas mediciones está entre el 1 y el 5%.






Se considera hogares al grupo familiar, residente en la Península, Islas Baleares y Canarias, con al menos una televisión que por su uso es susceptible de ser medida por un audímetro. Los individuos medidos deben tener más de cuatro años de edad


La muestra es diseñada para responder a las variables habituales de edad, población, sexo, clase social, número de televisores, mando a distancia, posesión de video y nivel cultural.

Al parecer, los poseedores de un audímetro deben firmar una claúsula de confidencialidad y no manipulación de datos. Para ello, Sofres no tiene en cuenta la medición de las primeras semanas. A cambio de ello, no se paga a los poseedores del audímetro, sino que van recibiendo unos puntos que con el tiempo se pueden canjear a cambio de regalos. El aparato no puede ser adquirido, ni tampoco puede una persona ofrecerse voluntariamente para el estudio. Sofres realiza los estudios correspondientes y ofrece el audímetro a ese grupo estadísticamente significativo de personas.


¿Cómo son los audímetros?

Un audímetro tiene el tamaño de un receptor de TDT, con un diseño antíguo, de color gris o negro. En su parte frontal, tiene unos botones que se corresponden con las 8 primeras letras del abecedario. Cada una de ellas representa a un miembro de la familia.




¿Cómo funcionan?

Cada hogar poseedor de un audímetro dispone de un mando a distancia especial, como éste:



Cada miembro del hogar tiene asignado un botón, que deberá pulsar para identificarse cada vez que encienda la televisión. Eso le permite saber al aparato no sólo quien está viendo la televisión, sino su sexo y edad, datos claves en la muestra. Cada vez que haya invitados, estos también deben identificarse con unos botones especiales. Permite controlar hasta 7 invitados aparte de los miembros de la familia. Si los miembros del hogar no se identifican, el aparato va emitiendo una señal acústica que se va haciendo cada vez mayor, hasta que se identifiquen. Además, el aparato pregunta cada X tiempo si sigues delante del televisor, si no hay respuesta, la tele se apaga. Esta función se realiza para evitar mediciones falsas y datos erróneos.

Estos aparatos miden lo que hace el espectador minuto a minuto, de forma contínua. Si esta viendo un canal u otro, si está haciendo zapping, etc. Los audímetros actuales llevan incorporado un disco duro, que evita la pérdida de información en caso de un apagón de luz. Además, son capaces de medir el consumo del vídeo, la TDT o las plataformas de pago (estos últimos son audímetros especiales). Al final del dia, todos los datos recopilados se envían vía línea telefónica, a la central de TNS Sofres, donde son procesados.

Otras empresas de medición de audiencias en el mundo 

En el resto del mundo, la compañía más importante de control de audiencias es Nielsen Media Research, fundada en 1923, que sirve la audiencia de Estados Unidos a partir de 5.000 audímetros que observan el comportamiento televisivo de 13.000 personas.

Además, en otros países: Auditel, para Italia; y GFK, para Alemania.

ACTUALIZACIÓN:

Gracias Algo pasa con Mey por comentar esta entrada e incluir un enlace tan interesante que vamos a incrustar a continuación



Leído en: 



lunes, 4 de octubre de 2010

El billete en circulación más valioso del mundo

lunes, 4 de octubre de 2010

Según el Departamento del Tesoro de EEUU, el billete de 10000 $ es el billete más valioso en circulación.

Este billete sólo se utiliza para grandes operaciones interbancarias, y fue realizado en 1928 y 1934. Presenta el rostro de Salomon Chase, quien fuera Secretario del Tesoro norteamericano entre 1861 y 1864

Durante la II Guerra Mundial, el billete se dejó de imprimir, junto con los billetes de 500$, 1000$ y 5000$, y en todos los proyectos de ley fueron declarados obsoletos el 14 de julio de 1969. Aún así, hoy en día, los bancos de la Reserva Federal los destruyen cuando los reciben, pero siguen siendo moneda de curso legal mientras que sigan en circulación. Sólo se imprimieron 200 billetes de 5000 $ y 300 billetes de 10000$. A  continuación podemos ver cómo es el tan apreciado billete.




Por mera curiosidad, hemos buscado los billetes que le siguen en la lista de más valiosos en circulación y son los siguientes:

Prácticamente empatados en el segundo puesto, se encuentran los billetes de 10.000 SGD (dólares de Singapur) y el de 10.000 BND (dólares de Brunei), cada uno equivalente a alrededor de 7400$ (7386 y 7381 respectivamente) de acuerdo al convertidor de divisas de google a fecha de hoy.

En los siguientes puestos, pero ya bastante lejos, se encuentran los billetes de 500 LVL (lats letones) y los billetes de 1000 francos suizos, que rondan los 1000$ en equivalencia.

Para terminar, hay que mencionar que existió un billete con valor de 100000$, que se creó en 1934, durante la época de la Gran Depresión, pero que no llegó nunca a circular y era únicamente para uso interno del gobierno estadounidense, para que los bancos de la Reserva Federal los utilizaran para transacciones entre sí. Ésta práctica continuó hasta la década de 1960, cuando el gobierno destruyo "casi todos", quedando los últimos en poder del Banco de la Reserva Federal de San Francisco, la Oficina de Grabado e Impresión y el Instituto Smithsonian.

Fuentes:



viernes, 1 de octubre de 2010

Llamadas Tierra-Aire, Aire-Tierra. ¿Cómo funcionan en España?

viernes, 1 de octubre de 2010
Seguramente, son muchas las veces las que te habría gustado coger en pleno vuelo tu teléfono móvil para hacer una llamada necesaria o enviar algún mensaje de texto que te urgía mandar. Pues a partir de ahora, cuando subas en avión, se terminaron las incesantes advertencias protocolarias de «está terminantemente prohibido encender o hablar por el teléfono móvil en pleno vuelo » o «el teléfono no pueden encenderlo hasta el momento de salir del avión, no antes» a las que asistías en cada vuelo como si de un ritual se tratase.

Precedentes

La Unión Europea aprobó en abril de 2008 las normas que permitían la utilización del teléfono móvil a bordo de los aviones en las mismas condiciones en los 27 Estados miembros, tanto para efectuar y recibir llamadas como para enviar o recibir mensajes de texto de manera segura durante los vuelos. Las reglas tienen armonizadas la concesión de licencias y los requisitos técnicos para la prestación de este servicio, independientemente de las fronteras que se atraviesen.

¿Cuál es la situación actual en España?

Más de 2 años después de la aprobación europea, el Ministerio de Industria, Turismo y Comercio aprobó el día 14 de julio de 2010 la normativa en forma de orden Ministerial que permitía la adopción del estándar MCA (Mobile Communication on Aircraft) en aviones operando en el espacio aéreo español.

El estándar MCA permite el uso de los terminales de los usuarios mientras dura el vuelo. Ya no será necesario usar los teléfonos satélite que ofrecen algunas compañías aéreas y que venían a costar la nada despreciable cantidad de 10 euros por minuto.

En la actualidad, la única operadora española que ofrece este servicio en algunos vuelos es Vodafone, que tiene un acuerdo con la operadora OnAir para la gestión de estas llamadas. El acuerdo incluye algunos de los vuelos de largo recorrido de las compañías British Airways, TAP (Portugal), Royal Jordanian Airlines, Wataniya Airways, Qatar Airways, Oman Air y Saudi Arabian Airlines.

¿Cuál es su coste?

El coste de las llamadas en los vuelos que permitan estos servicios, que depende de que los aviones estén equipados para utilizar el sistema MCA, es de 2 euros de establecimiento de llamada (2,32 euros con IVA) y 4 euros por minuto (4,72 euros con IVA). Este es el precio tanto de las llamadas realizadas como de las recibidas. Por su parte, sólo se cobra el envío de mensajes de texto (SMS), no su recepción, con un precio de 1,5 euros por mensaje (1,77 con IVA).

¿Cómo funciona el sistema MCA?

En la siguiente imagen podemos ver un esquema que resume todo el sistema MCA



Los principales componentes del sistema son:

  • Una picocelda que da servicio a toda la cabina de pasajeros.
  • La NCU o Network Control Unit que se encarga de impedir que los móviles embarcados traten de comunicarse con las redes terrestres, lo que podría causarles problemas, dada la velocidad del avión. Esto se consigue por medio de la emisión de un cierto nivel de ruido electromagnético en las bandas en las que potencialmente operan las redes terrestres (es decir, no sólo GSM1800 sino también GSM900 y otras). La NCU se encarga, junto con la picocelda de que los móviles emitan a la mínima potencia posible.
  • El AGS (Aircraft GSM Server) se encarga de integrar todos los componentes embarcados así como de permitir a la tripulación controlar el sistema mediante una consola.
  • El AGS está en contacto con el módem que se encarga de lanzar las comunicaciones al satélite, quien a su vez las devuelve a tierra para su progreso como una llamada normal a partir de ahí. A modo de ejemplo, OnAir usará los servicios de Inmarsat para establecer este enlace.
Fuentes:
http://www.elpais.com
http://www.lacofa.es
http://www.elperiodico.com
http://www.easyviajar.com



 
Design by Pocket Free Blogger Templates created by The Blog Templates