lunes, 12 de agosto de 2019

EL CÓDIGO MORSE CAMBIA POR PRIMERA VEZ EN 60 AÑOS PARA INCLUIR LA ARROBA

https://elpais.com/tecnologia/2004/04/19/actualidad/1082363281_850215.html


          La arroba o '@' se utiliza en las direcciones de correo electrónico para separar el nombre del dueño de la cuenta -que se sitúa a su izquierda- de la organización o empresa en la que se encuentra -a su derecha-. Los técnicos que la incluyeron en el leguaje tecnológico la usaron como una traducción de 'en'. Ante su populrización, la Unión Internacional de Telecomunicaciones decide introducir este símbolo en el código Morse, en lo que será "el primer cambio en los últimos 60 años", según declaraba la semana pasada a The New York Tines un portavoz de esta organización.

          Este código existe desde que Samuel F. B. Morse enviara en 1844 el primer mensaje de larga distancia por medio del telégrafo. Desde entonces, las tecnologías de la información han evolucionado mucho, pero el uso del alfabeto Morse en la comunicación por radio y otros sigue vivo.

          La arroba, por su parte, es un símbolo cuyo uso se ha extendido de forma espectacular en los últimos quince años o veinte años, como consecuencia de su uso en las direcciones de correo electrónico. A partir del próximo 3 de mayo los radioaficionados podrán intercambiar sus direcciones de email mediante el uso de este nuevo símbolo del alfabeto morse.

          La '@' se transmitirá mediante el uso combinado de dos letras, la 'a' y la 'c', y tendrá un sonido que no se confunde con ningún otro símbolo de este alfabeto. Juan Martín, secretario de la Unión Española de Radioaficionados señala que hasta ahora se utilizaban códigos diferentes entre la comunidad anglosajona y la hispanohablante para transmitir este símbolo, y que la fórmula adoptada ahora por la UIT para incluir la arroba en el alfabeto morse no coincide con ninguna de ellas.

          Martín señala que pese a su edad, el código Morse sigue utilizándose entre los radioaficionados, pues con él la comunicación es "más fácil, ocupa un menor ancho de banda y se llega más lejos". De hecho, su conocimiento "sigue siendo obligatorio para sacarse la licencia" de radioaficionado.


martes, 6 de agosto de 2019

HACIA LA LUNA CON UN ORDENADOR CON MENOS CAPACIDAD QUE UN TELÉFONO MÓVIL

https://elpais.com/elpais/2019/07/08/ciencia/1562591222_793254.html

Hacia la Luna con un ordenador con menos capacidad que un móvil

     Los astronautas del 'Apolo 11' volaron hacia el satélite con una computadora mucho menos potente que el teléfono que hoy llevamos en el bolsillo. Es verdad... hasta cierto punto.

El piloto Michael Collins, en un simulador durante unas prácticas el 19 de junio de 1969 en el centro
espacial Kennedy. En vídeo, cronología de la llegada a la Luna. FOTO: NASA

          Al recibir el encargo de ir a la Luna, la NASA tuvo claro enseguida que haría falta un ordenador a bordo de la nave. Las maniobras de navegación y los cálculos que implicaban eran demasiado complicados para hacerlos sin ayuda. Cierto que el centro de proceso de datos de Houston tendría capacidad para ello, pero el Apolo iba a sobrevolar la cara oculta de la Luna al menos durante tres periodos críticos: La entrada en órbita, el inicio del alunizaje y el encendido del motor para el retorno a la Tierra. Y durante ese tiempo, estaría fuera del alcance de las estaciones de seguimiento. La nave tenía que ser autónoma.

          El sistema de navegación del Apolo (que incluía el ordenador) fue la primera pieza que la NASA contrató. Semanas antes, incluso, que la nave que debía guiar. El pedido recayó en un laboratorio del MIT, no en ninguna empresa aeroespacial como North American o Boeing, lo cual constituyó toda una sorpresa. El motivo principal era la experiencia que ya habían acumulado en proyectos anteriores, como el desarrollo de un autopiloto inercial para aviones o el sistema de guía de los misiles Polaris.

          Las especificaciones originales del sistema de navegación eran simples: “Que nos lleve hasta la Luna y de regreso”. Nadie tenía una idea muy clara de cómo hacerlo. En especial, cuando se trataba de diseñar una máquina que consumiese lo mismo que una bombilla y cupiese en el espacio de dos cajas de zapatos.

          Para poner el encargo en perspectiva, el centro de cálculo de la NASA utilizaría cinco ordenadores IBM 360/75, entonces la última palabra en cuanto a potencia de cálculo. Ocupaban una sala entera y devoraban kilovatios y kilovatios de potencia. No solo las máquinas en sí, sino también las docenas de periféricos y los equipos de aire acondicionado imprescindibles para refrigerarlos. Cada máquina estaba
equipada con nada menos que todo un megabyte de memoria RAM, un lujo asiático por aquel entonces.

          En contrapartida, el ordenador embarcado en el Apolo dispondría del equivalente a cuatro kilobytes de memoria RAM y 72 para almacenar el programa. O mejor dicho, los programas, porque cada vuelo utilizaría dos computadores: uno en el módulo de mando y otro en el que aterrizase en la Luna. Y, lógicamente, el software de uno y otro serían totalmente diferentes. Aunque el hardware sea el mismo. Pero en 1961, la palabra software no existía. Nadie sabe muy bien lo que es y a nadie parece preocuparle.

          El ordenador del Apolo se encargó de controlar todos los equipos de a bordo: Motores, sistemas de estabilización, sextante, radar de alunizaje... Todo. Fue la primera vez que se diseñó una máquina así. Y también, la primera vez que se decidió utilizar en ella circuitos integrados. Unos dos mil en cada modelo. Porque la era del microprocesador todavía estaba lejos. Lo que contenía cada uno de esos circuitos se limitaba a un par de puertas lógicas NOR, los elementos más simples del álgebra booleana. Solo tres transistores y unas pocas resistencias en cada una.

          Como pocos se fiaban de los nuevos microcircuitos, todos los componentes se sometieron a pruebas exhaustivas. Se pesaron uno por uno, se sumergieron en freón y se volvieron a pesar. Si aumentasen, aunque solo fuera medio miligramo, era señal de que el encapsulado no era hermético. Todo el lote se devolvía al fabricante. La construcción de los ordenadores Apolo consumió unos 200.000 chips, el 60% de toda la producción de la época.

Pantalla y teclado de la consola principal del 'Apollo 13'. 

          El ordenador no tendrá discos duros (aún muy en el futuro) ni pantalla ni ratón. Tan solo un teclado numérico con tres líneas de display y unas cuantas luces de alarma.Los astronautas se comunicarán con él tecleando número en una secuencia muy básica de “verbo” y “nombre”. Verbo es la acción a ejecutar; nombre, el parámetro que necesita. Los astronautas han de memorizar todos los códigos, aunque disponen de “chuletas” que les ayuden. Por ejemplo, para aterrizar en la Luna se utilizarán sucesivamente tres programas: El 63, que controla la secuencia de frenado, el 64 para la aproximación y el 66 para la toma de tierra.

          El listado del programa que habrá de cargar en la máquina ocupa una pila de casi dos metros de papel. Está escrito en ensamblador pero, una vez traducido, es una larguísima secuencia de unos y ceros, en único lenguaje que entiende la máquina. Ese código se programa físicamente en forma de miles de núcleos de ferrita (unos anillos magnéticos de apenas un milímetro de diámetro) enhebrados en largos hilos de cobre: Si el hilo pasa a través del núcleo, es un uno; si no, un cero.

          A todos los efectos, el software es, en realidad, hardware. Su construcción se encomienda a una serie de operarias provenientes de la industria textil, acostumbradas a trabajos repetitivos y de enorme precisión. Los astronautas se referirán afectuosamente a la LOL memory, de Little Old Lady. Cada una tarda en tejerse de dos a tres meses. Sin errores, puesto que corregirlo sería una pesadilla que implicaría deshacer buena parte del trenzado. Y no habrá repeticiones: cada vuelo tendrá su propia programación, distinta de los otros.

          Una vez terminado y probado, los componentes se embeben en resina y los módulos se encajan entre topes de goma. Hay que protegerlos contra la corrosiva atmósfera de la nave (oxígeno puro) y las vibraciones del lanzamiento. Y, aunque se han puesto toda la atención en evitar errores, los ingenieros sospechan que ocultos en algún lugar de esa telaraña de cables siguen existiendo bugs. Quizás no aparezcan durante todo el vuelo. O quizás sí.

          Para admiración de sus propios diseñadores, los ordenadores del Apolo se comportaron a la perfección durante todos los vuelos del programa. Su precisión en tareas de navegación rivalizaba con la de los ordenadores de Houston, pese a tener que realizar complejos cálculos matriciales y vectoriales. Y aunque ocurrieron fallos y anomalías, la programación era tan robusta que prácticamente nunca dejaron de funcionar. Si su capacidad se saturaba, iban descartando tareas no esenciales una a una. En el peor de los casos estaban diseñados para reiniciarse automáticamente en menos de un segundo, retornando las tareas pendientes en el punto donde las habían dejado.

          Sí, ciertamente el ordenador del Apolo era mucho, mucho menos potente que el móvil que tenemos en nuestro bolsillo. La pregunta es, ¿confiaría usted su vida en su teléfono, en la esperanza de que aguante diez días sin quedarse colgado en uno u otro momento?


jueves, 18 de julio de 2019

LAS TRES AMENAZAS QUE CIERNEN SOBRE LA RED

https://elpais.com/tecnologia/2019/03/11/actualidad/1552298297_783559.html

TIM BERNERS-LEE

Tim Berners-Lee

          Hoy, 30 años después de mi propuesta original para un sistema de gestión de la información, medio mundo utiliza Internet. Es un momento para celebrar lo lejos que hemos llegado, pero también es una oportunidad para reflexionar sobre lo lejos que tenemos que ir todavía.

         La web se ha convertido en una plaza pública, una biblioteca, una consulta de un médico, una tienda, un colegio, un estudio de diseño, una oficina, un cine, un banco y muchas cosas más. Naturalmente, con cada nueva característica y cada nuevo sitio web, la división entre los que usan Internet y los que no aumenta y hace que sea aún más imprescindible lograr que todo el mundo tenga acceso a la Red.

      Y aunque Internet ha creado oportunidades, ha dado voz a los grupos marginados y ha facilitado nuestras vidas cotidianas, también ha engendrado oportunidades para los estafadores, ha dado voz a los que difunden el odio y ha facilitado la comisión de todo tipo de delitos.

        Con el telón de fondo de las noticias sobre el uso incorrecto de Internet, es comprensible que mucha gente tenga miedo y no esté segura de que la Red sea realmente buena. Pero teniendo en cuenta lo mucho que ha cambiado en los últimos 30 años, resultaría derrotista y poco imaginativo suponer que Internet, tal y como lo conocemos, no se pueda cambiar para mejor en los próximos 30. Si renunciamos a crear una Red mejor, la Red no nos habrá fallado, sino que nosotros le habremos fallado a la Red. Para abordar cualquier problema, debemos definirlo de forma clara. En líneas generales, considero que hay tres causas de las disfunciones que afectan a la web actual:

        - Las intenciones deliberadas y maliciosas, como el pirateo y los ataques informáticos apoyados por los Estados, la conducta delictiva y el acoso en Internet.

      - El diseño de un sistema que crea incentivos perversos en los que se sacrifica al usuario, como los modelos de ingresos basados en la publicidad que recompensan comercialmente el cibercebo y la difusión viral de la desinformación.

      - Las consecuencias negativas involuntarias del diseño benevolente, como el tono enfurecido y polarizado y la calidad de las conversaciones en Internet.

          Aunque resulte imposible eliminar totalmente la primera categoría, podemos crear leyes y códigos para reducir al mínimo ese comportamiento, como siempre hemos hecho fuera de Internet. La segunda categoría exige que rediseñemos los sistemas de manera que cambie los incentivos. Y la última categoría requiere investigación para entender los sistemas actuales y crear posibles nuevos modelos o modificar los que ya tenemos.

         No se puede culpar simplemente a un Gobierno, a una red social o a la mentalidad humana. Los discursos simplistas corren el riesgo de agotar nuestra energía mientras tratamos los síntomas de estos problemas en vez de centrarnos en sus causas. Para hacerlo bien, tenemos que unirnos como una comunidad mundial de Internet.

          En momentos fundamentales, las generaciones anteriores se unieron para trabajar unidas para un futuro mejor. Con la Declaración Universal de los Derechos Humanos, distintos grupos de personas han sido capaces de ponerse de acuerdo sobre unos principios esenciales. Con el Derecho Marítimo y el Tratado sobre el Espacio Exterior, hemos preservado nuevas fronteras para el bien común. Y ahora también, a medida que Internet modifica nuestro mundo, tenemos la responsabilidad de asegurarnos de que se reconozca como un derecho humano y se construya en beneficio de todos. Esta es la razón por la que la Web Foundation trabaja con Gobiernos, empresas y ciudadanos para crear un nuevo Contrato para la Red.

           Este contrato se presentó en la Web Summit en Lisboa, que reunió a un grupo de personas que coincide en que hay que establecer unas normas, unas leyes y unos criterios claros sobre los que se sustente la Red. Los que lo apoyan adoptan sus principios básicos, y juntos elaboramos los compromisos específicos en cada ámbito. Ningún grupo debería hacerlo solo, y todas las aportaciones serán bienvenidas. Los Gobiernos, las empresas y los ciudadanos hacen su aportación, y nuestro objetivo es conseguir resultados este año.

           Los Gobiernos deben adaptar las leyes y las normativas a la era digital. Deben asegurarse de que los mercados sigan siendo competitivos, innovadores y abiertos. Y tienen la responsabilidad de proteger los derechos y las libertades de las personas en Internet. Necesitamos defensores de la Red abierta dentro de los Gobiernos, funcionarios civiles y autoridades elegidas que tomen medidas cuando los intereses del sector privado amenacen el interés general y que se alcen en su favor para proteger la Red abierta.

          Las empresas tienen que hacer más para asegurarse de que su búsqueda de beneficios a corto plazo no sea a costa de los derechos humanos, la democracia, los datos científicos o la seguridad pública. Las plataformas y los productos deben diseñarse teniendo en cuenta la privacidad, la diversidad y la seguridad. Este año, hemos observado cómo varios empleados de empresas tecnológicas se han rebelado y exigido mejores prácticas empresariales. Tenemos que fomentar esa mentalidad.

         Y lo más importante es que los ciudadanos deben exigir a las empresas y a los Gobiernos que rindan cuentas por los compromisos que adoptan y que ambos respeten Internet como una comunidad mundial cuya base son los ciudadanos. Si no elegimos políticos que defiendan una Red libre y abierta, si no ponemos de nuestra parte para fomentar conversaciones sanas en Internet y si seguimos dando nuestro consentimiento sin exigir que se respeten nuestros derechos sobre los datos, estamos incumpliendo nuestra responsabilidad de hacer que nuestros Gobiernos den prioridad a estos temas.

          La lucha por la Red es una de las causas más importantes de nuestra época. Hoy en día, medio mundo usa Internet. Es más urgente que nunca asegurarse de que la otra mitad no se queda rezagada fuera y de que todo el mundo contribuye a crear una Red que fomente la igualdad, las oportunidades y la creatividad.

           El Contrato para la Red no debe ser una lista de soluciones temporales, sino un proceso que indique un cambio en la manera en que entendemos nuestra relación con nuestra comunidad digital. Debe ser lo bastante claro para constituir una guía sobre nuestra manera de proceder, pero también lo bastante flexible para adaptarse a la rapidez del cambio en la tecnología. Es nuestro recorrido desde la adolescencia digital hacia un futuro más maduro, responsable e inclusivo.

          La Red es para todos, y juntos tenemos el poder para cambiarla. No será fácil. Pero si soñamos un poco y trabajamos mucho, podemos conseguir la Red que queremos.


martes, 12 de junio de 2018

IBM REDUCE A 5 NANÓMETROS EL TAMAÑO DE LOS TRANSISTORES PARA LOS CHIPS DEL FUTURO

https://elpais.com/tecnologia/2017/06/26/actualidad/1498467552_426125.html


Interior de uno de los laboratorios de la empresa IBM.
Interior de uno de los laboratorios de la empresa IBM. IBM
          Un grupo de investigadores de IBM, junto con equipos de Global Foundries y Samsung, ha desarrollado un nuevo proceso industrial de fabricación que permitirá fabricar transistores y chips a una escala clave de 5 nanómetros (nm) en unos años, reduciendo aún más las escalas más avanzadas de 7 y 10 nm, que ya son posibles, y que pronto serán las más comunes.

          Esto supone un nuevo avance en la confirmación de la ley de Moore, propuesta por el ingeniero que fundó Intel allá por 1965. Básicamente, afirma que la capacidad de procesamiento de los chips se multiplicaría al tiempo que su tamaño se iría reduciendo cada cierto número de meses (originalmente, cada dos años). Aunque hay límite absoluto a esta ley empírica –el tamaño de los átomos– hasta ahora se ha cumplido de forma bastante aproximada. Y los ingenieros parecen querer hacerla durar más todavía.

          El avance logrado por IBM ha sido posible gracias a la utilización de lo que se denominan nanoláminas de silicio, que sustituyen a la tecnología FinFET (tridimensional) común hoy en día (para chips de 7 y 10 nm). A las nanoláminas se les aplica un proceso de grabación mediante litografía denominado "ultravioleta extrema" (EUV) que dibuja todos transistores del chip sin necesitar tanto espacio de separación como otras. De este modo se pueden empaquetar hasta 30.000 millones de transistores en un solo chip del tamaño de una uña, frente a los 20.000 millones como máximo que permitía la tecnología de 7 nm.

          Aunque ya se había ha demostrado la posibilidad de fabricar transistores más pequeños –como los de 1 nanómetro por parte de investigadores del Lawrence Berkeley National Laboratory– en esos casos la utilización de nuevos materiales (el disulfuro de molibdeno) todavía distaba de poder convertirse en un proceso industrial como los actuales. La fabricación de chips de IBM de 5 nm en cambio, con ideas que la compañía lleva una década poniendo en práctica, podría estar tan cerca como "unos pocos años", según ha afirmado los investigadores, que manejan fechas tentativas como 2020.

¿Qué ventajas suponen estos chips tan pequeños?

          Aparte de la lógica miniaturización al poder comprimir más transistores en menos espacio (hasta un 40 por ciento), también está el ahorro de energía (hasta un 75 por ciento), algo cada vez más importante de cara a su utilización en dispositivos móviles como teléfonos, tabletas, relojes o wearables. Según explican, estos chips permitirían no tener que recargar el móvil nada más que una vez cada dos o tres días.

          Aparte de esto, el poder contar con mucha más potencia en pequeños dispositivos gracias a los procesadores más potentes hará que no sean necesarios grandes equipos para disfrutar de aplicaciones en el campo de la inteligencia artificial, la realidad virtual o la llamada "internet de las cosas". ¿Lo más interesante? Que la carrera por la miniaturización no parece detenerse aquí, dado que como parte del anuncio de la tecnología de 5 nm se mencionaron varias veces las palabras "… y más allá".

FABRICADO EL TRANSISTOR MÁS PEQUEÑO DEL MUNDO


https://elpais.com/tecnologia/2016/10/19/actualidad/1476873307_047514.html

El profesor Ali Javey y el graduado Sujay Desai en el Berkeley Lab junto a sus instrumentos para el análisis de los transistores de 1 nm. Ampliar fotoEl profesor Ali Javey y el graduado Sujay Desai en el Berkeley Lab junto a sus instrumentos para el análisis de los transistores de 1 nm. MARILYN CHUNG/BERKELEY LA
          Investigadores del Lawrence Berkeley National Laboratory de Berkeley (Estados Unidos) han fabricado un transistor de 1 nanómetro, llevando más allá una de las limitaciones físicas que las escalas tan reducidas imponen a los microchips actuales. Para conseguirlo han utilizado nanotubos de carbono y un material llamado disulfuro de molibdeno sobre la capa de silicio convencional.

          La física impone un límite a la carrera sin fin por la miniaturización de los componentes básicos de la microelectrónica, límite al que siempre parece que nos estamos aproximando. La regla general es que cuanto más pequeños son los transistores de un chip, mejor: eso permite crear procesadores más rápidos, con menor consumo y de tamaño más reducido (o con más transistores en el mismo espacio). Ahí es donde entran los límites de la física: a partir de ciertos tamaños se sabe que los efectos cuánticos en los átomos de que están compuestos esos transistores harán inviable su funcionamiento.

          Los expertos utilizan varias escalas clave en la fabricación de los transistores de los microchips, que hoy en día rondan los 14 nm (nanómetros, millonésimas de milímetro), aunque los de 22 y 32 nm también son muy comunes. Los transistores de Intel en los chips de la familia Broadwell, Atom y Skylake son de 14 nm; algo similar sucede en los de Apple: los A9 y A10 son de 14 y 16 nm, fabricados por Samsung y TSMC. El siguiente salto tecnológico son los 10 nm (previstos para 2017) para pasar luego a los 5 nm hacia 2020. Pero estas aspiraciones de futuro son, de momento, meras conjeturas.

          NEC e IBM ya fabricaron en 2002 y 2003 transistores de 5 y 6 mm a modo de demostración, y, posteriormente, otros de 10 nm con buen rendimiento, dando una pista acerca de que los nanotubos de carbono podrían ser el camino. Esto ha sido confirmado con la fabricación de demostración del transistor más pequeño del mundo, de tan solo 1 nm, en el Berkeley Lab. El trabajo completo con todos los detalles ya se ha publicado en la revista Science.

Nuevos materiales para una nueva escala

          El disulfuro de molibdeno que se ha utilizado reemplaza al silicio como componente de las puertas del transistor. Tiene propiedades interesantes, según sus creadores, especialmente su buen comportamiento eléctrico. Esto permite encenderlo y apagarlo millones de veces por segundo, como los transistores actuales de los microchips. El nanotubo de carbono se emplea durante su fabricación porque los sistemas convencionales, como la litografía, no sirven a esa escala. Además, se aprovecha su estructura cilíndrica a modo de electrodos, con buen comportamiento.

          El avance que supone este transistor es interesante, pero los investigadores avisan de que se trata tan solo de una demostración científica, como las que ya hicieran IBM, NEC, Toshiba y otros hace más de una década: “Es una prueba de concepto. Ni hemos empaquetado miles de millones de transistores en un chip ni hemos desarrollado los sistemas para evitar las complicaciones típicas que surgen durante el proceso de fabricación. Pero es importante haber demostrado que ya no estamos limitados a 5 nm con el tamaño de las puertas de los transistores. La Ley de Moore podrá seguir cumpliéndose si somos capaces de utilizar los materiales, arquitectura e ingenierías adecuadas”, advierten.

LA LEY DE MOORE

          En 1965, uno de los fundadores de Intel, Gordon Moore, afirmó que el número de transistores en un chip se duplicaría "cada dos años”. Con el tiempo, un profesor del Cal Tech le otorgó el sobrenombre de Ley de Moore y el término cuajó. Luego sufriría ligeras modificaciones, incluyendo referencias a “la capacidad de procesamiento del chip” y al “tamaño de los transistores”. Incluso en vez de dos años se refinó el periodo de duplicación a 18 meses y se incluyeron factores como que “el coste se reducirá a la mitad”. El caso es que la definición es muy laxa y a raíz de esto surgieron todo tipo de controversias, la más común sobre dónde estaba el límite a la famosa Ley.

          Entendidas literalmente, algunas de las acepciones de la Ley de Moore parecen tener un límite lógico y físico: el tamaño de los átomos. Es por ello que cuando se entra en la escala de los nanómetros el asunto se complica: si un transistor mide más o menos 1 nanómetro es tan solo diez veces más grande que los 0,1 nanómetros que mide la «nube de electrones» de un átomo típico – y es difícil fabricar algo más pequeño. Los chips actuales tienen transistores de entre 10 y 20 nm y son tan solo 100 o 200 veces más grandes que esos átomos. Sin embargo, ingenieros y científicos siguen trabajando en hacer que la Ley de Moore perdure, con ingenio y nuevos descubrimientos que –de momento– van salvando la afirmación de Moore.

¿CUÁNTA ENERGÍA HAY EN UN RAYO?

https://elpais.com/elpais/2016/12/15/ciencia/1481798404_436882.html

Un rayo cae sobre la playa de Alhucemas. ULY MARTÍN


           Durante la mayor parte de la historia humana, a la gente le han asustado los rayos.Como aterradoras descargas procedentes del cielo, los rayos eran una herramienta de los dioses para castigar a los mortales por su arrogancia (o su desafortunada tendencia a refugiarse de las tormentas bajo los árboles). El descubrimiento y uso del pararrayos de Benjamin Franklin domesticó a esta arma divina antes formidable.

          No obstante, la fuerza de los rayos aún pervive en nuestra imaginación. Hollywood los considera lo bastante potentes para permitir que coches de extraño diseño de principios de la década de 1980 rompan el continuo espacio-tiempo. En el mundo de los cómics, es uno de los ingredientes de la receta para conseguir superpoderes. También se les ha conferido la capacidad de resucitar a los muertos, aunque no siempre con el resultado deseado.

          ¿Y cuánta energía hay de hecho en un rayo? Puede parecer que esta pregunta ya debería tener una respuesta definitiva, pero resulta difícil de responder en términos cuantitativos. En nuestras investigaciones, hemos abordado el asunto de un modo nuevo: hemos deducido la magnitud de un rayo a partir del tamaño de las rocas formadas por él.

Cálculos aproximados

          Está claro que un rayo es muy potente: no hay más que fijarse en un árbol partido por la mitad para constatarlo. Los rayos generan temperaturas más altas que la de la superficie solar, por encima de 20.000 grados Celsius, temperatura que, por lo demás, es impensable para los seres humanos.

          Esta medición de la temperatura ofrece un modo de calcular la energía de un rayo. Se requiere una determinada cantidad de energía para calentar el aire hasta una temperatura elevada. Si se mide la longitud de un rayo y esta se multiplica por la energía por metro necesaria para calentar el aire hasta decenas de miles de grados, se puede calcular la energía del rayo.

          También podemos abordar la medición de la energía de un rayo teniendo en cuenta el voltaje de una descarga. Un voltio es una medida de la cantidad de energía liberada cuando cada paquete de electrones pasa de un lado de un objeto a otro (por ejemplo, en una pila). Cuando cae un rayo, podemos averiguar elvoltaje que genera en las líneas eléctricas cercanas, que oscila entre cientos de miles y millones de voltios. A partir de la Ley de Ohm, se puede calcular la potencia del rayo multiplicando el voltaje por el número de electrones que se mueven durante la descarga, lo que se conoce como corriente. Si conocemos la duración de esta descarga, podemos calcular la energía a continuación.

          Estos métodos conllevan una gran variedad de errores: calcular mal la longitud del rayo, equivocarse en la cantidad de gas calentado por metro, o en la temperatura, el voltaje o el número de electrones (todos ellos, errores bastante grandes en el contexto de este cálculo).

          ¿Existiría otra manera de calcular la energía de un rayo, que redujese algunos de estos errores? Las extraordinarias características geológicas de Florida ofrecen una vía interesante mediante la que responder a esa pregunta.

Rayos fosilizados

          Florida suele ser una zona bastante aburrida para los amantes de las rocas. Hay arena y hay caliza. No mucho más, y todo es reciente, en términos geológicos. En algunos casos, la arena se depositó hace 15 millones de años y, en otros, hace cinco millones. Eso es mucha arena.

          El clima de Florida es un poco más interesante; de hecho, es el estado de EE UU en el que caen rayos con más frecuencia. Muchas veces, estos rayos caen en la arena que cubre la superficie del estado. Cuando esto sucede, se forma una nueva clase de roca, llamada fulgurita (un tubo hueco que se forma cuando el rayo atraviesa la arena, la vaporiza y derrite el borde exterior. Cuando la arena se enfría, cosa que sucede enseguida, el tubo hueco se convierte en un vidrio que registra el recorrido del rayo. Por definición, una fulgurita es una roca metamórfica que, transformada por el calor y la presión, deja de ser arena y se convierte en algo nuevo.

          Las fulguritas suelen escasear, a menos que se sepa dónde buscar. El centro de la zona peninsular de Florida alberga varias minas de arena que proporcionan materia prima para la fabricación de carreteras, cemento, campos de golf y pistas deportivas. En uno de esos yacimientos, hemos encontrado varios centenares de fulguritas; más de 250 se encontraban en el suelo, y muchas más en montones de escombros, filtradas de la arena antes de que esta fuese cargada en camiones.

          Estos yacimientos no son, de hecho, distintos de cualquier otra zona de Florida —no son una especie de imán para los rayos—, pero el entorno geológico es el adecuado para que se conserven durante mucho tiempo. Estas minas de arena probablemente contengan fulguritas acumuladas desde hace un millón de años. Son fáciles de encontrar: como el vidrio no es algo deseable en la arena comercial, en la mina lo filtran y lo desechan.

          El grosor de las fulguritas oscila entre, aproximadamente, el del dedo meñique de un bebé y el del brazo de un hombre adulto. Las más gruesas tuvieron que formarse por el impacto de rayos con mucha más energía: una fulgurita más gruesa equivale a una mayor cantidad de arena vaporizada. La mayoría de las fulguritas que hemos encontrado son fragmentos cortos, aunque las más largas medían uno o dos metros.

Cálculos basados en las fulguritas

          Se necesita una cantidad específica de energía para vaporizar la arena. Primero, la arena debe calentarse hasta los 1.700 °C, aproximadamente la temperatura de la lava fundida. A esta temperatura, la arena se derrite. La arena derretida se tiene que calentar a continuación hasta unos 3.000 °C, punto en el que se vaporiza. Hacen falta unos 15 megajulios de energía para calentar y vaporizar un kilogramo de arena. Es aproximadamente la cantidad de energía que una familia estadounidense media consume en seis horas, o la energía cinética que tendría un coche medio si se moviese a 483 kilómetros por hora.

          Tras medir nuestras fulguritas, llegamos a la conclusión de que la energía media necesaria para formar esas rocas fue de al menos un megajulio por metro de fulgurita formada. Calculamos la energía por metro porque, nuevamente en la mayoría de los casos, las fulguritas que recogimos estaban rotas.

          Así que, según nuestros cálculos, ¿cuánto se acerca Hollywood con cálculos como los de Regreso al futuro, de 1,21 gigavatios de potencia en un rayo? La potencia es la energía en función del tiempo, y nuestras mediciones de las fulguritas indican que con megajulios de energía se forman rocas en milmillonésimas de segundo. De modo que un gigavatio se queda corto en realidad; la potencia de un rayo podría ser 1.000 veces superior, con lo que llegaría al teravatio, aunque el valor medio seguramente sea de decenas de gigavatios.

          Con esa energía se proporcionaría electricidad a unos 1.000 millones de casas, aunque solo durante unas millonésimas de segundo. Por desgracia, dada su esporádica e impredecible naturaleza, ninguna red eléctrica podrá nunca aprovechar los rayos de forma eficaz. Pero con tantísima energía, puede que romper el continuo espacio-tiempo en un Delorean tuneado no sea tan inviable, después de todo...

Una singularidad en el patrón

          Cuando estudiamos a fondo las fulguritas, los datos arrojaron un resultado extraño. Nuestras mediciones de energía seguían lo que se conoce como un patrón “logarítmico normal”.

          En lugar de seguir la curva en forma de campana que suele tener la distribución de los fenómenos naturales —por ejemplo, la estatura de los hombres estadounidenses—, la curva de la energía presentaba un equilibrio más desigual. En el caso de la altura, hay el mismo número de hombres situados cinco centímetros por encima y cinco centímetros por debajo de la estatura media. Pero, en el caso de los rayos, los grandes eran mucho mayores que la media, mientras que los más pequeños no eran mucho más pequeños que la media. Los rayos que duplicaban la media eran tan frecuentes como los que se correspondían con la mitad de la media.

          Ahora bien, ¿qué interés o utilidad podría tener este hallazgo? Medir la energía de los rayos es una forma de medir los daños que pueden causar: si un rayo es capaz de vaporizar una roca, ¿qué haría con la madera o los aparatos electrónicos? Nuestras mediciones ponen de manifiesto que los rayos más grandes son múltiplos de los rayos de magnitud media: uno grande puede ser 20 veces mayor que uno medio, lo cual es mucho para un sistema de protección antirrayos. La energía máxima calculada mediante nuestro método de las fulguritas nos da una idea del daño máximo que podemos esperar y, en última instancia, nos permite estar mejor preparados para las peores situaciones posibles.

Matthew Pasek es Catedrático adjunto de Ciencias Geológicas (Universidad del Sur de Florida).

¿POR QUÉ LAS ANTENAS PARABÓLICAS SON PARABÓLICAS?

https://elpais.com/elpais/2017/01/04/el_aleph/1483528157_923387.html



          En ocasiones, los estudios y trabajos matemáticos se consideran innecesarios, prescindibles o una pérdida de tiempo aludiendo, principalmente, falta de utilidad o nulas aplicaciones prácticas de los mismos. Hoy, en este artículo, os traigo un caso que ejemplifica que estos estudios son necesarios, aunque en un principio no se les vea aplicación práctica, ya que nunca se sabe cuándo ni dónde podremos encontrarles utilidad: las antenas parabólicas. Su forma no alude a una cuestión estética ni a un capricho de algún fabricante, sino que responde a una cuestión meramente matemática, que concretamente usa de forma muy inteligente una propiedad de las parábolas conocida desde hace casi 2000 años.


          Antes de nada, vamos a recordar qué son las parábolas. Una parábola es una cónica (curva que surge de hacer un cierto corte a un cono) que se define como el conjunto de puntos que están a la misma distancia de un punto concreto, llamadofoco, y una cierta recta, llamada directriz. En la siguiente imagen podéis ver una parábola (en rojo), su foco y su directriz y la igualdad de distancias a esos dos objetos desde varios puntos de la misma:

          A partir de esta definición, es fácil construir un objeto en 3D girando la parábola respecto de un eje vertical que pasa por su foco. Al hacer esto, obtenemos una superficie tridimensional denominada paraboloide:

          ¿Os suena? Exacto, acabamos de crear una antena parabólica, cuyo foco es el mismo que el de la parábola que hemos girado.

          ¿Por qué esta forma es útil? Pues por una interesante propiedad de las parábolas que describimos a continuación:

Un punto del interior de la parábola que se mueva por una recta paralela al eje “rebotará” en la parábola y será enviado hacia el foco.

          Esto significa que si mandamos señales hacia la parábola que sean paralelas al eje, éstas serán reflejadas por ella hacia el foco, independientemente de la recta que usemos. Aquí tenéis una demostración de este hecho, atribuida a Dositeo. Tenéis una muestra gráfica en este applet de GeoGebra. Y en este otro applet podéis verlo de forma animada.

          Y esto es muy útil, ya que con un paraboloide que tenga un receptor de señal colocado en el foco podemos conseguir que todas las señales que reboten en el paraboloide acaben siendo enviadas a dicho receptor, sin necesidad de tener que apuntar directamente al mismo. Es decir, con un pequeño receptor obtenemos una gran recepción de señal utilizando toda la superficie del paraboloide de la forma descrita.

          Esta propiedad no se utiliza solamente para las antenas parabólicas, sino para otros dispositivos, como cocinas solares. Se construye un paraboloide que refleje los rayos del sol y se coloca en su foco el objeto a cocinar, consiguiendo así que se caliente mucho más rápido. Esto también puede usarse para acumular energía solar, colocando un acumulador en el foco del paraboloide.

          Por otra parte, esta propiedad también se puede usar de manera inversa. Colocamos en el foco del paraboloide un emisor de señal orientado hacia el paraboloide y emitimos dicha señal hacia la mayor parte posible de su superficie. Todas las señales “rebotarán” en la misma y se reflejará de forma paralela a su eje hacia afuera, consiguiendo así mayor emisión de señal que la que obtendríamos emitiendo solamente desde un punto. Por ejemplo, esto se puede usar en faros de vehículos (colocando una bombilla en el foco para emitir mayor cantidad de luz) o en micrófonos parabólicos (con un micrófono en el foco para emitir sonido a mayor superficie).

          Y para finalizar, otra curiosidad. Como podéis ver en la imagen principal que ilustra este artículo, el foco del paraboloide está sujeto con cuatro barras rectas que se apoyan en la superficie del mismo (hay que sujetarlo de alguna forma). Esto tiene el problema de que algunas señales, tanto si emitimos como si recibimos, pueden rebotar en estas barras y, por tanto, perderse. Para evitar esto, lo que se hace en algunas ocasiones es tomar para la antena una parte del paraboloide que no esté “debajo” del foco, sino “a un lado”, como puede verse también en las dos antenas que aparecen a la derecha en la imagen principal, o en la que podéis ver a la derecha. Así evitamos esos rebotes en las sujeciones, y conseguimos una antena más eficiente.

          Como podéis ver, estudios que en un principio se hacen sin pensar en posibles usos acaban encontrando aplicaciones prácticas muy interesantes y útiles, que, en este caso, han supuesto un gran desarrollo en muchos campos. Por ello, sería ideal que no subestimemos los estudios matemáticos, por muy abstractos que nos parezcan. Nunca se sabe cuándo pueden sernos de ayuda en el día a día.

          Otro uso de una antena parabólica:

https://desenchufados.net/como-construir-tu-propia-cocina-solar/