sábado, 2 de noviembre de 2019

INTERNET



Marta Peirano (periodista especializada en tecnología y autora de "El enemigo conoce el sistema" (Debate).


Jaime Rubio Hancock.
          Internet lleva mal los 50 años. Nos espía, nos controla y nos genera adicción. Nos mantiene en un estado de ansiedad permanente que gestionamos con series, comunidades friquis y vídeos de cocina, maquillaje, deporte o debate político. Sus centros de procesamiento de datos liberan la misma cantidad de CO2 en la atmósfera que un país desarrollado de tamaño mediano. Sus redes sociales han hecho presidente a Donadl Trump. No podemos vivir sin él, y no podemos vivir con él. Después de dos décadas en las que todo parecía prosperar, la relación se ha vuelto tóxica. El problema no es Internet, pero es algo que le pasa a Internet. Un virus oportunista que tiene muchos nombres: capitalismo extrativista, capitalismo de la vigilancia, capitalismo de plataformas y feudalismo digital.


EL PRIMER MENSAJE DE INTERNET SÓLO TENÍA DOS LETRAS

          Está claro que ya no es el proyecto que inauguraron Leonard Kleirock (por aquel entonces tenía 35 años) y su estudiante Charley Kline un 29 de octubre de 1969, a las 22:30 horas local (tres meses antes, Neil Amstrong y Buzz Aldrin se dieron el primer paso por la Luna), enviando el primer mensaje desde la Universidad de California en Los Ángeles al Instituto de Investigación de Standford, en Menlo Park.


El profesor Leonard Kleinrock junto a un procesador de mensajes en la habitación donde nació Internet, en la Universidad de California en Los Ángeles. Imagen de 2011. REUTERS

          Su máquina era una Sigma 7 de 32 bits, la última que fabricó Scientific Data System antes de que la comprara Xerox en 1969. Al otro lado estaban Douglas Engelbart, el joven programador Bill Duval y una SDS 940, la primera máquina con un sistema operativo de uso directo compartido y la futura anfitriona de Community Memory, el primer boletín de noticias virtual. Para conectarlas, la empresa BNN fabricó dos enormes conmutadores de paquetes llamados IMP (Interfase Message Processor, Procesador de Mesajes de Interfaz - una minicomputadora, pero "mini" para los estándares de la época). La máquina pesaba unos 400 Kg y había costado 80.000 dólares, lo que 50 años más tarde equivaldrían a medio millón de euros. Su tamaño era similar al de una nevera. Ambos conmutadores los conectaron a través de una línea telefónica de AT&T. La conexión era tan inestable que se cortó antes de llegar a la mitad.

           Entonces Internet todavía se llamaba ARPANET, un proyecto de la Guerra Fría que había perdido el interés del Departamento de Defensa de Estados Unidos. ARPA era la Agencia de Proyectos de Investigación Avanzada, red experimental de ordenadores que Eisenhower mandó crear en 1958, cuando Rusia dejó obsoleto su sofisticado sistema de vigilancia aérea con el satélite Sputnik. ARPA estaba bajo la dirección de Larry Roberts, que había compartido despacho con Kleinrock en el MIT (Massachusetts, Institute of Technology, Instituto Tecnológico de Massachusetts). Allí, Kleinrock había publicado el primer artículo sobre el envío de datos en paquetes, una de las nociones básicas de la tecnología de Internet. Esta red, ARPA net, comenzó con cuatro universidades: UCLA, Stanford, Utah y California-Santa Bárbara. Kleinrock se encargó de seguir y estudiar su funcionamiento, por eso le tocó hacer la primera prueba.

          El 29 de octubre de 1969, Kleinrock y su estudiante Charles Kline enviaron su primer mensaje desde UCLA (Universidad de California Los Ángeles) a la Universidad de Stanford, a 600 kilómetros de distancia, donde estaba el otro ordenador IMP. Sólo había que enviar el comando LOGIN, el comando que se usa para poder entrar como usuario en un sistema. UCLA enviaría las tres primeras letras, "LOG", tecleadas por Kline, y el ordenador de Stanford completaría la palabra tecleando "IN". Además de eso,  para asegurarse de que todo iba bien, Kleinrock estaba también al teléfono con Standord:

     - ¿Os ha llegado la "L"?

     - Sí.

     - ¿Os hallegado la "O"?

     - Sí.

          Lo que no llegó fue la "G". La computadora de Stanford se cayó, por lo que el primer mensaje enviado con éxito en Internet solo fue "LO". Tras una hora más de trabajo y un nuevo intento, las tres letras de "LOG" cruzaron esos 600 Km. Había nacido Internet.


La sala desde donde se envió el primer mensaje se reconstruyó en 2011. En la puerta hay una placa que dice "Lugar de nacimiento de Internet". Robyn Beck (AFP/Getty Images)

La placa dela puerta de la sala desde la que se envió el prime mensaje dice: "Birthplace of the Internet". Aquí nació internet. Robyn Beck. (AFP / Getty Images)



HE AQUÍ EL PRIMER MENSAJE DE INTERNET

          Fue un mensaje poco solemne si lo comparamos con otros estrenos. En 1844, Samuel Morse envió por telégrafo un mensaje de Washington a Baltimore con la frase What hath God wrought? (¿Qué nos ha traído Dios?). Alexander Graham Bell pudo decirle por teléfono a su asistente en 1876: Señor Watson, venga aquí. Quiero verle, en la primera conversación telefónica registrada (aunque Meucci inventara el teléfono años antes son poder patentarlo). En Internet tenemos "LO".

          En los textos de historia de Internet se suele comparar este "lo" a "Lo and Behold", una expresión frecuente en las Biblias en inglés, que en las versiones en español suele traducirse o aparecer como "he aquí". A Kleinrock le gusta decir que aquel "LO" fue el "Lo and Behond" (oh, milagro; he aquí; ecce homo) de nuestra era. Fue el título que el director alemán Werner Herzog le puso a su documental sobre la Red en 2016. Kleinrock decía en el primer episodio que "no podríamos haber pedido un mensaje más breve, más poderoso, más profético".

          Aunque hoy se habla del "cumpleaños de Internet", la ocasión no se celebró particularmente. Después de aquel mensaje no hubo ruedas de prensa ni nada parecido, más allá de una nota en un diario de trabajo de la universidad: "22:30, hemos hablado con SRI (Stanford Research Institute) de servidor a servidor." A nadie se le ocurrió dejar mayor constancia. Hay una foto del cuaderno en la página de Kleinrock en la web de la universidad, donde sigue trabajando a sus 85 años.


Nota de Kleinrock en su cuaderno, haciendo referencia al primer mensaje enviado por Internet. UCLA.

          La UCLA envió una nota de prensa en julio de 1969 que recogía declaraciones del propio Kleinrock: " Por el momento, las redes de computadoras están en su infancia. Pero a medida que crezcan y aumente su sofisticación, probablemente veremos cada vez más servicios de computadoras, que, igual que los servicios de electricidad y teléfono, darán servicio a hogares y oficinas de todo el país."

          El profesor también contaba que las redes de ordenadores "no son un concepto nuevo del todo", aunque hasta ese momento se trataba de redes para funciones muy concretas, como el sistema de reservas de aerolíneas Sabre. ARPA no tenía propósito definido, como ha quedado claro años después, cuando usamos Internet para ver series, buscar recetas, enviar mensajes y buscar una ruta sin atascos, entre otras muchísimas cosas.

          Los medios no hicieron mucho caso; incluso el periódico de los estudiantes de la Univesidad, The Daily Bruin, apenas le dedicó al tema una esquina de su portada del 15 de julio: "Las computadoras del país se unirán aquí primero." El artículo detallaba que en el proyecto participaban 20 personas de UCLA, incluyendo a 15 estudiantes.

Leonard Kleinrock junto al ordenador desde el que se envió el primer mensaje de Internet. Robyn Beck (AFP/Getty Images). A la derecha de la imagen se puede apreciar el recorte del periódico de la univerdad donde se cita esta primera comunicación de Internet.

          El ordenador dejó de usarse en 1982. La universidad estuvo a punto de tirarlo a la basura. "Nadie pensaba que esta máquina fuera importante", explicó Kleinrock, que logró salvarla a tiempo.

          "Mandé aquel primer mensaje por Internet, pero fue como cualquier otro día, apenas les dí importancia. Estábamos intentando resolver un problema complejo. No estaba claro si iba a salir bien. Sabíamos que podría tener impacto, pero en aquel momento no lo tuvo. No fue un gran asunto. Lo que nos animaba era el desafío de ingeniería, la excitación de hacer algo nuevo. La recompensa no era monetaria, obviamente, sino resolver un problema y crear algo que otro usara", explicó Kleinrock en el marco de las jornadas de Onlife celebradas en Milán a principios de octubre.

          El pecado original de Internet fue la ingenuidad de los pioneros. La Internet original era un lugar de encuentro de investigadores. Era obvio que aquello iba a explotar. "Estaba claro que iba a estar en cada casa, pero no supe ver, ni yo ni nadie, la poderosa parte de comunidad (las redes sociales) y su impacto en cada uno de los aspectos de la sociedad. No fue hasta que el correo electrónico inundó la red en 1972 que me dí cuenta del poder que tendría Internet al permitir la interacción entre gente", dice.

          Aún menos supo intuir que se usaría la Red para el mal: mandar spam, suplantar la personalidad, robar datos, y la llegada delos discursos de odio o noticias falsas. Es probable que más atención inicial no hubiera evitado estos problemas, pero los hubiera mitigado. "No necesitábamos seguridad ni privacidad. Nadie la necesitaba. Había algo incluido en la tecnología inicial llamado interfaz de línea privada que estaba cifrado. Pero nadie lo usaba porque no lo requería. Así que no se desarrolló", explica.



¿CUÁL FUE EL PRIMER USO ILEGAL DE INTERNET? LO COMETÍ YO EN 1973

          Los pioneros de Internet vivían en una red para miembros selectos cuyo uso estaba limitado a fines científicos. "¿Cuál fue el primer uso ilegal de Internet? Lo cometí yo en 1973", explica Kleinrock. Había ido a una conferencia en la Universidd de Sussex (Reino Unido). Al volver a Los Ángeles se dio cuenta de que se había dejado la maquinilla de afeitar. "Y la quería de vuelta. Era por la tarde en Los Ángeles, las 3 de la mañana en Londres, y pensé: ¿quién estará despierto a esta hora? Seguro que mi buen amigo Larry Roberts (otro de los padres de Internet)", dice. Entró en su programa desde su habitación tecleó: where Roberts? (¿dónde Roberts?). "Lo que hacía este programa era preguntar a otros ordenadores, a todos en aquel momento, y miraba quién estaba en sesión en cada máquina. Espere tres minutos y apareció Roberts, abrí un chat y le pedí que me trajera mi maquinilla al día siguiente. Este fue un uso personal, no científico. Así que en cierto sentido fue el primer acto ilegal", explica.

          Esta ingenuidad sobre el concepto de maldad en Internet es algo que dejó a estos investigadores sorprendidos cuando vieron el primer mensaje de spam el 12 de abril de 1994. Era sobre la lotería de green cards, los permisos de residencia permanente en Estados Unidos. El asunto de correo electrónico sugería que era el último sorteo y animaba a los receptores a responder para pedir más información. De ahí a exigirles algo de dinero a cambio de nada, solo había un paso.

         Cuando Kleinrock vio aquellos mensajes falsos en 1994 se sorprendió. El único modo de remediarlo era relanzar Internet, que requería desconectar todos los equipos y volver a empezar. Ya era demasiado tarde. Como ahora. "A las grandes compañías tampoco les importa. Explotan la falta de privacidad. La compañía no hacía el mal, ¿te acuerdas?", dice en referencia a Google, cuyo lema inicial era "No seas malo". "Pero la gente se corrompe con mucha facilidad", añade Kleinrock.



INTERNET ES FRÁGIL

          Internet es frágil. Sus fundamentos están construidos sobre columnas enclenques, que requieren de parches y andamios. "Déjeme que te cuente el motivo", dice Kleinrock. "Los programadores son una mala raza. ¿Por qué? Prueban algo de código, no funciona. Prueban como cambiar algo, no funciona. Prueban algo distinto, ¡funciona, ya está!. Pero yo, como teórico, matemático, tengo que analizarlo y evaluarlo, ¿cuál es su rendimiento, funciona bien? ¿Qué límites tiene? Los desarrolladINTERores no piensan así. Solo quieren que funcione,  cuando lo hace, lo lanzan", explica. Para un sistema operativo o una app es importante ser los primeros en el mercado, no los más perfectos en seguridad o privacidad. Para eso ya están las actualizaciones posteriores. Hay mucho dinero en juego para quien llega primero.

          Pero mientras llegan las actualizaciones, los malos encuentran montones de agujeros. Así se ha hecho Internet, añadiendo pisos encima de fundamentos a medio hacer, que se iban reparando, mientras más y más pisos se colocaban encima. Los agujeros que quedan y que se van creando son enormes.




DESARROLLO DE INTERNET

          Cuatro años más tarde de la creación de ARPANET, en 1962, durante la crisis de los misiles cubanos, la agencia le encargó a un ingeniero eléctrico de origen polaco, Paul Baran, que buscara una topografía de red capaz de resistir un ataque nuclear. Baran predijo que estaría compuesta de ordenadores y sería digital. Y dibujó tres topografías de red distintas, de la más frágil (centralizada) a la más resistente (distribuida), donde la transmisión de datos quedaba repartida equitativamente por todos los nodos. Si no había un centro de operaciones, nadie podría destruir la operación.

Paul Baran, uno de los padres desconocidos de Internet.

          Baran inventó también un ingenioso sistema burocrático para que los paquetes de datos circularan por esa red de la manera más segura y eficiente posible. Así nació el sistema de conmutación de paquetes (packet-switching), el principio que rige las comunicaciones de datos en redes informáticas de todo el planeta. Y que fue demostrado aquella noche de otoño, Lo and Behold. Pero para entonces, el presidente era Richard Nixon y EEUU había puesto un hombre en la Luna, el Concorde había roto la barrera del sonido y 25.000 personas se habían juntado para hacer el amor y no la guerra en un festival de la Costa Este (festival de Woodstock, 15 al 18 de agosto de 1969). América estaba a otras cosas. Fue precisamente su desgracia lo que le permitió prosperar.

          En 1973, ARPANET tenía 40 notos conectados que intercambiaban archivos, pero la agencia estaba tan arruinada que trató de regalarle el proyecto a AT&T, y la operadora lo rechazó. Los ingenieros dijeron que era algo que no podían usar ni vender. Que no servía para nada. La verdad es que rechazaron el sistema de conmutación de paquetes de Paul Baran desde el primer minuto porque les quitaba el control absoluto sobre la red. En aquel momento, ni el gobierno de EEUU ni su principal operadora entendieron el potencial del experimento que pronto transformaría el mundo. Así fue como la red militar se convirtió en un proyecto humanista en manos de un puñado de profesores y estudiantes universitarios y siguió creciendo como infraestructura pública, conectando instituciones científicas y educativas.

          Al otro lado del Atlántico, el informático Donald Davies implementaba una red basada en la conmutación de paquetes para el Laboratorio Nacional de Física en el Reino Unido, y el ingeniero Louis Pouzin desarrollaba Cyclades en el Laboratorio Nacional de Investigación de Ciencias de la Computación francés. Todas las operadoras de Europa tenían su propio proyecto de red y eran públicas. La primera Conferencia Internacional de Comunicación por ordenador los reunió en Washington en 1972. Allí nace el International Network Working Group, con Davies , Pouzin y el carismático científico de la computación estadounidense Vint Cerf a la cabeza. Estos padre fundadores de Internet crearon los protocolos que rigen la Red desde entonces: el protocolo de control de transmisión y el protocolo de Internet, llamados TCP/IP.

Vinton Cerf

          Llegar a los protocolos TCP/IP fue una tarea titánica y un verdadero acto de fe. Había docenas de redes basadas en la conmutación de paquetes, pero completamente distintas en todo lo demás. Unas iban por línea telefónica, otras por satélite y otras por radio. Tenían que comunicarse todas con todas. Y ese era solo el problema técnico. Había un problema político: conectar infraestructura pública y privada entre países distintos sin dejar que nadie ejerciera control de las comunicaciones.

          Cerf los describe como una guerra santa. Los ingenieros europeos no querían que un nuevo Hitler, un Stalin o un Mussolini pudiera espiar a sus propios ciudadanos, educadores o científicos. Los estadounidenses no estaban tan preocupados porque sus operadoras era privadas. En un mercado de libre competencia, pensaban algunos, ninguna empresa podría ejercer un dominio lo bastante grande como para que pasara algo así. Finalmente, Pouzin y Davies encontraron la manera de que los paquetes de datos viajaran de forma fragmentada por rutas recalculadas en función del tráfico existente, el ancho de banda disponible y la cantidad de notos participando en la transmisión. Cada paquete lleva la información necesaria para que el mensaje se pueda recomponer en su lugar de destino. La noche de fin de año de 1983, ARPANET cambió los protocolos y adoptó el TCP/IP.


UNA ESTRUCTURA CAPAZ DE RESISTIRLO TODO

          ¿Qué clase de red podría sobrevivir a una guerra nuclear? Paul Baran encontró la respuesta: aquella cuya supervivencia no depende de un solo punto de la estructura y cuya carga se distribuye de manera equitativa por todos los nodos que la forman. Su famoso diagrama presenta tres topografías de red: una centralizada con forma de estrella, donde todas las comunicaciones pasan por un solo punto; otra descentralizada compuesta de constelaciones, y una tercera red distribuida de nodos interconectados en una estructura no jerárquica. Si repartes el control entre todos los usuarios, no solo reducen el poder que puede ejercer cada uno, sino que también repartes la vulnerabilidad del sistema. Esta es la clase de red, concluyó Baran, capaz de resistir un invierno nuclear, una catástrofe meteorológica y lo que haga falta.

          Además de la estructura, Baran pensó una manera de proteger las comunicaciones. Los paquetes de datos serían fragmentados y dispersos por toda la red, saltando de noto en nodo hasta llegar a su destino. De esta forma viajarían más deprisa, aligerando la carga total del sistema, pero también serían más difíciles de interceptar. Además, si un nodo quedaba comprometido, el invasor solo tendría acceso a un fragmento de la comunicación total. Y si un nodo era distribuido antes de hacer su trabajo, al menos una parte importante del mensaje llegaría a su destino y se podría reconstruir. Esta es la base del sistema de conmutación de paquetes que hace posible la Red. No solo no ha quedado obsoleto, sino todo lo contrario: está más vigente que nunca.

          Los ingenieros de la compañía de telecomunicaciones estadounidense AT&T no se tomaron la propuesta con deportividad. Era la némesis del sistema de conmutación de circuitos creado por Bell Telephone Laboratories. Para hacer una llamada, la operadora establecía de antemano un canal de comunicación con un ancho de banda predeterminado, como un único cable entre emisor y receptor por el que se desplazaba el mensaje entero. Un solo fallo y se cortaba la comunicación. Un solo nodo comprometido y todo el mensaje quedaba en sus manos. Pero tenía el control absoluto del proceso. "Querer innovar en un sistema como este es como someterte a un trasplante de corazón mientras corres una milla en cuatro minutos", dijo Jack Morton, el jefe de departamento de ingeniería electrónica. Era un control al que no estaban dispuesto a renunciar.

          El memorando que entregó Paul Baran al gobierno de EEUU en agosto de 1964 con el diagrama, la tecnología y el sistema de gestión por paquetes fue archivado y olvidado en un cajón. Por suerte, la idea era demasiado buena para que se le ocurriera a uno solo. Había al menos dos ingenieros trabajando en el problema para dos instituciones distintas en otros puntos del globo. El primero era Donald Davies en el Laboratorio Nacional de Física de Londres. El segundo, Leonard Kleinrock en el MIT.



jueves, 31 de octubre de 2019

EL CÓDIGO MORSE CUMPLE 174 AÑOS. Y LO QUE LE QUEDA


https://elpais.com/elpais/2019/05/22/ciencia/1558543826_340340.html

Un viejo telégrafo de código Morse, en una mesa de madera.

          El primer mensaje en el código Morse de puntos y rayas enviado a larga distancia viajó desde Washington hasta Baltimore el viernes 24 de mayo de 1844, hace 175 años. Fue la primera vez en la historia de la humanidad en que se lograba comunicar pensamientos complejos entre lugares alejados entre sí de manera casi instantánea. Hasta entonces había que conversar cara a cara, enviar mensajes codificados mediante tambores, señales de humo y sistemas de telégrafos ópticos, o leer palabras impresas.

          Gracias a Samuel Morse, la comunicación cambió rápidamente, y desde entonces ha seguido cambiando cada vez más deprisa. Morse inventó el telégrafo eléctrico en 1832. Luego tardó otros seis años en normalizar un código para poder comunicarse a través de los cables telegráficos. En 1843, el Congreso de Estados Unidos le concedió 30.000 dólares para que tendiese un cableado entre la capital del país y la vecina Baltimore. Cuando la línea estuvo acabada, el inventor hizo una demostración pública de la comunicación a larga distancia.

          Morse no fue el único que trabajó para desarrollar una manera de comunicarse a través del telégrafo, pero la suya es la única que ha sobrevivido. Los cables, los imanes y las claves utilizados en la demostración inicial han dejado paso a las pantallas táctiles de los teléfonos móviles, pero el código Morse se ha mantenido esencialmente igual, y en el siglo XXI, quizá para sorpresa de algunos, conserva su relevancia. A pesar de haberlo aprendido y vuelto a aprender muchas veces como boy scout, radioaficionado y piloto, sigo admirándolo y me esfuerzo por dominarlo.

Fácil de transmitir

          La idea clave de Morse a la hora de elaborar su código fue la de tener en cuenta con qué frecuencia se emplea cada letra en inglés. Las más habituales tienen símbolos más cortos. La "e", que es la que aparece más a menudo, se representa mediante un punto. Por el contrario, la letra "z", que es la menos utilizada en inglés, se representó mediante el mucho más largo y complejo "punto-punto-punto (pausa) punto".

          En 1865, la Unión Internacional de Telecomunicaciones modificó el código para que recogiese las diferentes frecuencias de los caracteres en otras lenguas. Desde entonces se han hecho otros retoques, pero la "e" sigue siendo "punto". La "z", en cambio, ahora es "raya-raya-punto-punto".

          La relación con la frecuencia de las letras hace las comunicaciones extremadamente eficaces. Las palabras sencillas con letras corrientes se pueden transmitir muy deprisa. Las más largas también se pueden enviar, pero se tarda más.

Sin cables

          El sistema de comunicaciones para el que fue diseñado el código Morse ‒conexiones analógicas por cables metálicos que transmitían muchas interferencias y necesitaban una señal de tipo encendido/apagado muy clara para ser oídas‒ ha evolucionado de manera significativa.

          El primer gran cambio se produjo pocas décadas después de la demostración de Morse. A finales del siglo XIX, Guillermo Marconi inventó el radiotelégrafo, que permitía enviar el código de su predecesor a través de ondas de radio en vez de cables.

          Al sector del transporte marítimo le entusiasmó esta nueva manera de comunicarse con los barcos que estaban en el mar, ya fuese de barco a barco o con las estaciones costeras. En 1910, la legislación de Estados Unidos exigió a muchos barcos de pasajeros que navegaban por aguas del país que llevasen equipos inalámbricos para mandar y recibir mensajes.

          Tras el naufragio del Titanic en 1912, un convenio internacional obligó a algunos barcos a designar a una persona para que estuviese permanentemente a la escucha de señales de socorro por radio. Ese mismo convenio estableció que "SOS" ‒"punto-punto-punto raya-raya-raya punto-punto-punto"‒ sería la señal de socorro internacional, no como abreviatura de nada, sino porque era un patrón sencillo fácil de recordar y transmitir. La Guardia Costera suspendió la escucha en 1995, y en 1999 se suprimió la obligación de los barcos de vigilar la entrada de señales de socorro. A pesar de ello, la Armada estadounidense sigue enseñando como mínimo a algunos marinos a leer, enviar y recibir el código Morse.

          Los aviadores también utilizan el código Morse para identificar las asistencias a la navegación automatizadas. Se trata de radiobalizas que ayudan a los pilotos a seguir las rutas y a pasar de un transmisor al siguiente marcado sobre las cartas de navegación aeronáutica. Estas balizas envían sus identificadores ‒como, por ejemplo, "BAL" para Baltimore‒ en código Morse. Los pilotos suelen aprender a reconocer los patrones recurrentes de los transmisores situados en zonas que sobrevuelan con frecuencia.

          Asimismo, existe una floreciente comunidad de radioaficionados que también concede un gran valor al código Morse. Entre sus miembros, el código representa una preciada tradición cuyo origen se remonta a los primeros días de la radio. Algunos de estos aficionados seguramente empezaron en los Boy Scouts, así que, a lo largo de los años, el aprendizaje del código ha sido una opción o una obligación, según los casos. Antes, la Comisión Federal de Comunicaciones (FCC por sus siglas en inglés) exigía a todos los
radioaficionados autorizados que demostrasen su dominio del Morse, pero en 2007 dejó de hacerlo. La Comisión todavía otorga licencias comerciales condicionadas a un buen conocimiento del código, pero ya no es algo que se pida para ningún trabajo.

Un grabado de 1873 muestra al inventor Samuel Finley Breese Morse.

Morse con luz intermitente

          Como sus señales son tan sencillas ‒on/off, larga/corta‒, el código Morse se puede utilizar también con luces intermitentes. Muchas fuerzas navales de todo el mundo emplean esta clase de luces para comunicarse de barco a barco cuando no quieren utilizar la radio o el equipo de radiotransmisión se estropea. Actualmente, la Marina estadounidense está probando un sistema que deberá permitir al usuario mecanografiar palabras y convertirlas en luz intermitente. El receptor leerá los destellos y los volverá traducir a texto.

          En 2017, los conocimientos adquiridos en el servicio militar ayudaron a un hombre herido a comunicarse con su esposa de un extremo a otro de una playa rocosa utilizando solamente su linterna.

Otros mensajes en Morse

          Quizá el uso más notable del código Morse en época reciente sea el que hizo el piloto naval Jeremiah Denton mientras era prisionero de guerra en Vietnam. En 1966, al cabo de alrededor de un año de un cautiverio que duraría casi ocho, Denton fue obligado por sus captores norvietnamitas a participar en una entrevista televisada para que hablase del trato que recibía. Mientras la cámara le enfocaba la cara, parpadeó los signos en Morse para la palabra "tortura", confirmando así por primera vez los temores de Estados Unidos acerca de las condiciones en que se encontraban los militares presos en Vietnam del Norte.

          Parpadear en código Morse es lento, pero también ha ayudado a personas con enfermedades que les impiden hablar o comunicarse por otros medios. Existen dispositivos ‒entre ellos los iPhones y los móviles Android ‒ que se pueden configurar para que acepten entradas en código Morse de personas con movilidad reducida.

          Sigue habiendo muchas maneras de aprender Morse y practicarlo, incluso por Internet. En situaciones de emergencia puede ser la única manera de comunicarse. Aparte de eso, el código tiene algo de artístico, un ritmo y una fluidez musical en el sonido. Enviarlo y recibirlo puede proporcionar una sensación relajante y meditativa mientras la persona se concentra en el flujo de caracteres, palabras y frases. El caso es que, a veces, para conseguir lo que se pretende basta con el instrumento más sencillo.

Eddie King es estudiante de doctorado en Ingeniería Eléctrica en la Universidad de Carolina del Sur




lunes, 12 de agosto de 2019

EL CÓDIGO MORSE CAMBIA POR PRIMERA VEZ EN 60 AÑOS PARA INCLUIR LA ARROBA

https://elpais.com/tecnologia/2004/04/19/actualidad/1082363281_850215.html


          La arroba o '@' se utiliza en las direcciones de correo electrónico para separar el nombre del dueño de la cuenta -que se sitúa a su izquierda- de la organización o empresa en la que se encuentra -a su derecha-. Los técnicos que la incluyeron en el leguaje tecnológico la usaron como una traducción de 'en'. Ante su populrización, la Unión Internacional de Telecomunicaciones decide introducir este símbolo en el código Morse, en lo que será "el primer cambio en los últimos 60 años", según declaraba la semana pasada a The New York Tines un portavoz de esta organización.

          Este código existe desde que Samuel F. B. Morse enviara en 1844 el primer mensaje de larga distancia por medio del telégrafo. Desde entonces, las tecnologías de la información han evolucionado mucho, pero el uso del alfabeto Morse en la comunicación por radio y otros sigue vivo.

          La arroba, por su parte, es un símbolo cuyo uso se ha extendido de forma espectacular en los últimos quince años o veinte años, como consecuencia de su uso en las direcciones de correo electrónico. A partir del próximo 3 de mayo los radioaficionados podrán intercambiar sus direcciones de email mediante el uso de este nuevo símbolo del alfabeto morse.

          La '@' se transmitirá mediante el uso combinado de dos letras, la 'a' y la 'c', y tendrá un sonido que no se confunde con ningún otro símbolo de este alfabeto. Juan Martín, secretario de la Unión Española de Radioaficionados señala que hasta ahora se utilizaban códigos diferentes entre la comunidad anglosajona y la hispanohablante para transmitir este símbolo, y que la fórmula adoptada ahora por la UIT para incluir la arroba en el alfabeto morse no coincide con ninguna de ellas.

          Martín señala que pese a su edad, el código Morse sigue utilizándose entre los radioaficionados, pues con él la comunicación es "más fácil, ocupa un menor ancho de banda y se llega más lejos". De hecho, su conocimiento "sigue siendo obligatorio para sacarse la licencia" de radioaficionado.


martes, 6 de agosto de 2019

HACIA LA LUNA CON UN ORDENADOR CON MENOS CAPACIDAD QUE UN TELÉFONO MÓVIL

https://elpais.com/elpais/2019/07/08/ciencia/1562591222_793254.html

Hacia la Luna con un ordenador con menos capacidad que un móvil

     Los astronautas del 'Apolo 11' volaron hacia el satélite con una computadora mucho menos potente que el teléfono que hoy llevamos en el bolsillo. Es verdad... hasta cierto punto.

El piloto Michael Collins, en un simulador durante unas prácticas el 19 de junio de 1969 en el centro
espacial Kennedy. En vídeo, cronología de la llegada a la Luna. FOTO: NASA

          Al recibir el encargo de ir a la Luna, la NASA tuvo claro enseguida que haría falta un ordenador a bordo de la nave. Las maniobras de navegación y los cálculos que implicaban eran demasiado complicados para hacerlos sin ayuda. Cierto que el centro de proceso de datos de Houston tendría capacidad para ello, pero el Apolo iba a sobrevolar la cara oculta de la Luna al menos durante tres periodos críticos: La entrada en órbita, el inicio del alunizaje y el encendido del motor para el retorno a la Tierra. Y durante ese tiempo, estaría fuera del alcance de las estaciones de seguimiento. La nave tenía que ser autónoma.

          El sistema de navegación del Apolo (que incluía el ordenador) fue la primera pieza que la NASA contrató. Semanas antes, incluso, que la nave que debía guiar. El pedido recayó en un laboratorio del MIT, no en ninguna empresa aeroespacial como North American o Boeing, lo cual constituyó toda una sorpresa. El motivo principal era la experiencia que ya habían acumulado en proyectos anteriores, como el desarrollo de un autopiloto inercial para aviones o el sistema de guía de los misiles Polaris.

          Las especificaciones originales del sistema de navegación eran simples: “Que nos lleve hasta la Luna y de regreso”. Nadie tenía una idea muy clara de cómo hacerlo. En especial, cuando se trataba de diseñar una máquina que consumiese lo mismo que una bombilla y cupiese en el espacio de dos cajas de zapatos.

          Para poner el encargo en perspectiva, el centro de cálculo de la NASA utilizaría cinco ordenadores IBM 360/75, entonces la última palabra en cuanto a potencia de cálculo. Ocupaban una sala entera y devoraban kilovatios y kilovatios de potencia. No solo las máquinas en sí, sino también las docenas de periféricos y los equipos de aire acondicionado imprescindibles para refrigerarlos. Cada máquina estaba
equipada con nada menos que todo un megabyte de memoria RAM, un lujo asiático por aquel entonces.

          En contrapartida, el ordenador embarcado en el Apolo dispondría del equivalente a cuatro kilobytes de memoria RAM y 72 para almacenar el programa. O mejor dicho, los programas, porque cada vuelo utilizaría dos computadores: uno en el módulo de mando y otro en el que aterrizase en la Luna. Y, lógicamente, el software de uno y otro serían totalmente diferentes. Aunque el hardware sea el mismo. Pero en 1961, la palabra software no existía. Nadie sabe muy bien lo que es y a nadie parece preocuparle.

          El ordenador del Apolo se encargó de controlar todos los equipos de a bordo: Motores, sistemas de estabilización, sextante, radar de alunizaje... Todo. Fue la primera vez que se diseñó una máquina así. Y también, la primera vez que se decidió utilizar en ella circuitos integrados. Unos dos mil en cada modelo. Porque la era del microprocesador todavía estaba lejos. Lo que contenía cada uno de esos circuitos se limitaba a un par de puertas lógicas NOR, los elementos más simples del álgebra booleana. Solo tres transistores y unas pocas resistencias en cada una.

          Como pocos se fiaban de los nuevos microcircuitos, todos los componentes se sometieron a pruebas exhaustivas. Se pesaron uno por uno, se sumergieron en freón y se volvieron a pesar. Si aumentasen, aunque solo fuera medio miligramo, era señal de que el encapsulado no era hermético. Todo el lote se devolvía al fabricante. La construcción de los ordenadores Apolo consumió unos 200.000 chips, el 60% de toda la producción de la época.

Pantalla y teclado de la consola principal del 'Apollo 13'. 

          El ordenador no tendrá discos duros (aún muy en el futuro) ni pantalla ni ratón. Tan solo un teclado numérico con tres líneas de display y unas cuantas luces de alarma.Los astronautas se comunicarán con él tecleando número en una secuencia muy básica de “verbo” y “nombre”. Verbo es la acción a ejecutar; nombre, el parámetro que necesita. Los astronautas han de memorizar todos los códigos, aunque disponen de “chuletas” que les ayuden. Por ejemplo, para aterrizar en la Luna se utilizarán sucesivamente tres programas: El 63, que controla la secuencia de frenado, el 64 para la aproximación y el 66 para la toma de tierra.

          El listado del programa que habrá de cargar en la máquina ocupa una pila de casi dos metros de papel. Está escrito en ensamblador pero, una vez traducido, es una larguísima secuencia de unos y ceros, en único lenguaje que entiende la máquina. Ese código se programa físicamente en forma de miles de núcleos de ferrita (unos anillos magnéticos de apenas un milímetro de diámetro) enhebrados en largos hilos de cobre: Si el hilo pasa a través del núcleo, es un uno; si no, un cero.

          A todos los efectos, el software es, en realidad, hardware. Su construcción se encomienda a una serie de operarias provenientes de la industria textil, acostumbradas a trabajos repetitivos y de enorme precisión. Los astronautas se referirán afectuosamente a la LOL memory, de Little Old Lady. Cada una tarda en tejerse de dos a tres meses. Sin errores, puesto que corregirlo sería una pesadilla que implicaría deshacer buena parte del trenzado. Y no habrá repeticiones: cada vuelo tendrá su propia programación, distinta de los otros.

          Una vez terminado y probado, los componentes se embeben en resina y los módulos se encajan entre topes de goma. Hay que protegerlos contra la corrosiva atmósfera de la nave (oxígeno puro) y las vibraciones del lanzamiento. Y, aunque se han puesto toda la atención en evitar errores, los ingenieros sospechan que ocultos en algún lugar de esa telaraña de cables siguen existiendo bugs. Quizás no aparezcan durante todo el vuelo. O quizás sí.

          Para admiración de sus propios diseñadores, los ordenadores del Apolo se comportaron a la perfección durante todos los vuelos del programa. Su precisión en tareas de navegación rivalizaba con la de los ordenadores de Houston, pese a tener que realizar complejos cálculos matriciales y vectoriales. Y aunque ocurrieron fallos y anomalías, la programación era tan robusta que prácticamente nunca dejaron de funcionar. Si su capacidad se saturaba, iban descartando tareas no esenciales una a una. En el peor de los casos estaban diseñados para reiniciarse automáticamente en menos de un segundo, retornando las tareas pendientes en el punto donde las habían dejado.

          Sí, ciertamente el ordenador del Apolo era mucho, mucho menos potente que el móvil que tenemos en nuestro bolsillo. La pregunta es, ¿confiaría usted su vida en su teléfono, en la esperanza de que aguante diez días sin quedarse colgado en uno u otro momento?


jueves, 18 de julio de 2019

LAS TRES AMENAZAS QUE CIERNEN SOBRE LA RED

https://elpais.com/tecnologia/2019/03/11/actualidad/1552298297_783559.html

TIM BERNERS-LEE

Tim Berners-Lee

          Hoy, 30 años después de mi propuesta original para un sistema de gestión de la información, medio mundo utiliza Internet. Es un momento para celebrar lo lejos que hemos llegado, pero también es una oportunidad para reflexionar sobre lo lejos que tenemos que ir todavía.

         La web se ha convertido en una plaza pública, una biblioteca, una consulta de un médico, una tienda, un colegio, un estudio de diseño, una oficina, un cine, un banco y muchas cosas más. Naturalmente, con cada nueva característica y cada nuevo sitio web, la división entre los que usan Internet y los que no aumenta y hace que sea aún más imprescindible lograr que todo el mundo tenga acceso a la Red.

      Y aunque Internet ha creado oportunidades, ha dado voz a los grupos marginados y ha facilitado nuestras vidas cotidianas, también ha engendrado oportunidades para los estafadores, ha dado voz a los que difunden el odio y ha facilitado la comisión de todo tipo de delitos.

        Con el telón de fondo de las noticias sobre el uso incorrecto de Internet, es comprensible que mucha gente tenga miedo y no esté segura de que la Red sea realmente buena. Pero teniendo en cuenta lo mucho que ha cambiado en los últimos 30 años, resultaría derrotista y poco imaginativo suponer que Internet, tal y como lo conocemos, no se pueda cambiar para mejor en los próximos 30. Si renunciamos a crear una Red mejor, la Red no nos habrá fallado, sino que nosotros le habremos fallado a la Red. Para abordar cualquier problema, debemos definirlo de forma clara. En líneas generales, considero que hay tres causas de las disfunciones que afectan a la web actual:

        - Las intenciones deliberadas y maliciosas, como el pirateo y los ataques informáticos apoyados por los Estados, la conducta delictiva y el acoso en Internet.

      - El diseño de un sistema que crea incentivos perversos en los que se sacrifica al usuario, como los modelos de ingresos basados en la publicidad que recompensan comercialmente el cibercebo y la difusión viral de la desinformación.

      - Las consecuencias negativas involuntarias del diseño benevolente, como el tono enfurecido y polarizado y la calidad de las conversaciones en Internet.

          Aunque resulte imposible eliminar totalmente la primera categoría, podemos crear leyes y códigos para reducir al mínimo ese comportamiento, como siempre hemos hecho fuera de Internet. La segunda categoría exige que rediseñemos los sistemas de manera que cambie los incentivos. Y la última categoría requiere investigación para entender los sistemas actuales y crear posibles nuevos modelos o modificar los que ya tenemos.

         No se puede culpar simplemente a un Gobierno, a una red social o a la mentalidad humana. Los discursos simplistas corren el riesgo de agotar nuestra energía mientras tratamos los síntomas de estos problemas en vez de centrarnos en sus causas. Para hacerlo bien, tenemos que unirnos como una comunidad mundial de Internet.

          En momentos fundamentales, las generaciones anteriores se unieron para trabajar unidas para un futuro mejor. Con la Declaración Universal de los Derechos Humanos, distintos grupos de personas han sido capaces de ponerse de acuerdo sobre unos principios esenciales. Con el Derecho Marítimo y el Tratado sobre el Espacio Exterior, hemos preservado nuevas fronteras para el bien común. Y ahora también, a medida que Internet modifica nuestro mundo, tenemos la responsabilidad de asegurarnos de que se reconozca como un derecho humano y se construya en beneficio de todos. Esta es la razón por la que la Web Foundation trabaja con Gobiernos, empresas y ciudadanos para crear un nuevo Contrato para la Red.

           Este contrato se presentó en la Web Summit en Lisboa, que reunió a un grupo de personas que coincide en que hay que establecer unas normas, unas leyes y unos criterios claros sobre los que se sustente la Red. Los que lo apoyan adoptan sus principios básicos, y juntos elaboramos los compromisos específicos en cada ámbito. Ningún grupo debería hacerlo solo, y todas las aportaciones serán bienvenidas. Los Gobiernos, las empresas y los ciudadanos hacen su aportación, y nuestro objetivo es conseguir resultados este año.

           Los Gobiernos deben adaptar las leyes y las normativas a la era digital. Deben asegurarse de que los mercados sigan siendo competitivos, innovadores y abiertos. Y tienen la responsabilidad de proteger los derechos y las libertades de las personas en Internet. Necesitamos defensores de la Red abierta dentro de los Gobiernos, funcionarios civiles y autoridades elegidas que tomen medidas cuando los intereses del sector privado amenacen el interés general y que se alcen en su favor para proteger la Red abierta.

          Las empresas tienen que hacer más para asegurarse de que su búsqueda de beneficios a corto plazo no sea a costa de los derechos humanos, la democracia, los datos científicos o la seguridad pública. Las plataformas y los productos deben diseñarse teniendo en cuenta la privacidad, la diversidad y la seguridad. Este año, hemos observado cómo varios empleados de empresas tecnológicas se han rebelado y exigido mejores prácticas empresariales. Tenemos que fomentar esa mentalidad.

         Y lo más importante es que los ciudadanos deben exigir a las empresas y a los Gobiernos que rindan cuentas por los compromisos que adoptan y que ambos respeten Internet como una comunidad mundial cuya base son los ciudadanos. Si no elegimos políticos que defiendan una Red libre y abierta, si no ponemos de nuestra parte para fomentar conversaciones sanas en Internet y si seguimos dando nuestro consentimiento sin exigir que se respeten nuestros derechos sobre los datos, estamos incumpliendo nuestra responsabilidad de hacer que nuestros Gobiernos den prioridad a estos temas.

          La lucha por la Red es una de las causas más importantes de nuestra época. Hoy en día, medio mundo usa Internet. Es más urgente que nunca asegurarse de que la otra mitad no se queda rezagada fuera y de que todo el mundo contribuye a crear una Red que fomente la igualdad, las oportunidades y la creatividad.

           El Contrato para la Red no debe ser una lista de soluciones temporales, sino un proceso que indique un cambio en la manera en que entendemos nuestra relación con nuestra comunidad digital. Debe ser lo bastante claro para constituir una guía sobre nuestra manera de proceder, pero también lo bastante flexible para adaptarse a la rapidez del cambio en la tecnología. Es nuestro recorrido desde la adolescencia digital hacia un futuro más maduro, responsable e inclusivo.

          La Red es para todos, y juntos tenemos el poder para cambiarla. No será fácil. Pero si soñamos un poco y trabajamos mucho, podemos conseguir la Red que queremos.