martes, 18 de mayo de 2021

 

Cómo se levanta uno e inventa la IA en 1956

https://ecosistemahuawei.xataka.com/como-se-levanta-uno-e-inventa-la-ia-en-1956/

La inteligencia es un concepto complicado de definir incluso ahora, y eso que estamos inmersos en un tiempo en el que la palabra de moda es IA o Inteligencia Artificial. El concepto de Inteligencia Artificial, con todo, es relativamente nuevo (según se mire). Concretamente, la IA computacional data de los años 50 del siglo pasado, cuando un reducido número de profesionales de distintas materias centraron su atención en el incipiente mundo de los ordenadores y su potencial capacidad para exhibir un comportamiento inteligente.

Entre esos profesionales estaban Marvin Minsky, Claude Shannon, Alan Turing, Nathaniel Rochester, Roger Penrose o John McCarthy. El carácter ecléctico de este grupo es notorio y, sin ir más lejos, Marvin Minsky, uno de los padres de la Inteligencia Artificial, se graduó en Artes por la Universidad de Harvard, aunque también adquirió conocimientos en diversas disciplinas técnicas y se graduó en Matemáticas. Y, todo sea dicho, también era un buen pianista.

Shannon era matemático, ingeniero eléctrico y criptógrafo; Turing, matemático, experto en lógica, criptoanalista, filósofo y biólogo teórico; McCarthy, científico cognitivo; Penrose, matemático, filósofo y físico. Todos ellos convivieron bajo el paraguas de la incipiente ciencia de computadores, como parte de un movimiento recién salido del cascarón de empresas como IBM o Cray.

No es casualidad que en la década de los 50 del siglo XX se sentaran las bases tecnológicas de los primeros superordenadores con transistores a base de válvulas. El transistor de silicio como tal data de 1947, por lo que tenemos una concentración de innovaciones que hicieron que esos expertos en materias tan diferentes se planteasen la posibilidad de crear inteligencia a partir de máquinas artificiales.

Una posibilidad que incluso calaría en la cultura popular, que desde muy pronto identificó los procesadores de los ordenadores con «el cerebro» de los mismos. Esta analogía es una de las pruebas más evidentes de la identificación de los ordenadores con entidades potencialmente inteligentes.

El congreso de Dartmouth

En 1956, los diferentes nombres propios involucrados en hacer que las máquinas se comportasen («pensasen») como personas, se organizaron para organizar un evento centrado en estos aspectos. Y así, de un modo especial John McCarthy y Marvin Minsky, congregaron a diferentes profesionales en un evento de ocho semanas sobre la materia. De hecho, el término de Inteligencia Artificial fue acuñado por John McCarthy en 1955 para diferenciar este campo de otros como el de los autómatas o el de la cibernética.

La conferencia de Dartmouth (Hanover, New Hampshire, EEUU) se desarrolló durante el verano de 1956 sobre la premisa de que cualquier aspecto del aprendizaje o cualquier otro rasgo inteligente puede ser descrito con tanta precisión que una máquina podría simularlo. Aspectos como el lenguaje natural y su procesamiento, las redes neuronales o la teoría de la computación fueron tratados en los dos meses del curso.

En total asistieron veinte de los más afamados y brillantes profesionales de la época, incluyendo a John Nash (el persoaje que inspiró la película “Una Mente Maravillosa”) o Allen Newell. Si John McCarthy fue el que dio nombre a la IA, Marvin Minsky puede presumir de ser el creador de la primera red neuronal digital de la historia. Fue en 1951, para experimentar con la noción de aprendizaje máquina o Machine Learning, otro término de absoluta actualidad en nuestros días.

Y todo ello sobre el precedente de Alan Turing, que trabajó sobre la teoría de la computación publicando un trabajo en 1936 que supondría el desarrollo posterior de toda la ciencia computacional. Y sobre el de Claude Shannon, que modeló la cantidad de información que transportan las señales, allá en 1950.

El MIT, cuna de la IA

En 1959, Minsky y McCarthy fundaron el MIT Computer Science and Artificial Intelligence Laboratory, que sigue existiendo y funcionando en la actualidad. Minsky se quedó trabajando como profesor en el MIT hasta su muerte en enero de 2016.

De todos modos, en los comienzos de la IA, se pecó de un excesivo optimismo que condujo a una “época oscura” entre el año 1974 y 1980. Las partidas presupuestarias que se asignaron a los primeros proyectos no dieron los frutos esperados y se dejaron de financiar iniciativas en este campo. El desánimo cundió entre algunos profesionales. En parte, el responsable fue el propio Minsky y su libro Perceptrons, que cuestionaba la validez de los métodos desarrollados hasta ese momento (1969).

Después habría varios momentos de recuperación del interés, como en la década de los 80, pero en forma de los llamados sistemas expertos. Más que inteligencia artificial, se trataba de un conjunto de datos y algoritmos capaces de extraer información a partir de los datos en materias concretas. De todos modos, eran caros de mantener y se basaban en reglas del tipo “if… then”, en las que el conocimiento estaba implícito y no se derivaba de “aprendizaje”. Es decir, un sistema experto necesita de un conocimiento previo, lo cual es radicalmente distinto al aprendizaje usando, por ejemplo, redes neuronales.

En 1989, los primeros resultados victoriosos en ajedrez por parte de “máquinas” como Deep Thought, que ganaron el campeonato nacional de ajedrez, abrieron el camino para Deep Blue, que ganó a Kasparov en 1996. Sin embargo, estos éxitos se quedaron relativamente olvidados hasta la llegada de la nueva época dorada de la IA en la que estamos inmersos, con proyectos como AlphaGo o teléfonos inteligentes como el Huawei P20 Pro. Entre otras razones, ese olvido se debía a las limitaciones del hardware y por los métodos empleados en la programación de Deep Blue, con una importante carga de conocimiento previo del ajedrez, más que como resultado de un aprendizaje automatizado como sucede ahora.

Desde principios del Siglo XXI, el interés por la IA se ha recuperado. Los progresos en el hardware, la adopción de la computación en la nube y fenómenos como el Big Data han hecho posible que se retomen proyectos que se habían dejado de lado en su día, como el del reconocimiento y procesamiento del lenguaje natural. Sobre todo, porque ya se cuenta con la capacidad de procesamiento necesaria para retomar el trabajo con las redes neuronales, capaces de aprender a través del entrenamiento con ingentes cantidades de datos que, a día de hoy, están disponibles de forma generalizada.

La IA, inspirada en la biología

La IA no es realmente un “invento” asociado exclusivamente a la ciencia computacional. Ya los filósofos griegos trataron de sistematizar la inteligencia, en cierto modo, a través de lógica proposicional o de técnicas de argumentación e inducción. Se trataba de métodos para sistematizar la forma de pensar y actuar, no tanto con el fin de que una entidad artificial se comporte como un humano, como con el fin de que una entidad biológica se comporte de un modo humano.

Con los descubrimientos sobre el funcionamiento del cerebro o el papel de las neuronas en la función cerebral, se empezó a tratar de imitar el funcionamiento de las neuronas en el mundo de la electrónica, usando lógica y estadística para modelar el comportamiento de estas redes neuronales.

De hecho, el propio Marvin Minsky reconoce que su trabajo está inspirado, a su vez, en el de un biofísico matemático llamado Nicolas Rashevsky, que ya en 1930 desarrolló el primer modelo teórico de redes neuronales, que luego sería retomado por los “padres” de la IA moderna en su versión computacional.

HAL sigue sin ser posible

Con todo, a pesar de estas décadas de desarrollo de la IA, HAL 9000, el ordenador inteligente de 2001 Una Odisea en el Espacio, sigue sin ser realizable hoy en día. Precisamente, Marvin Minsky fue el asesor técnico en la película homónima, encargado de que la recreación de HAL tanto en el film como en la novela fuera lo más realista posible en la parte de la IA.

HAL, como la película, data de 1968, cuando Arthur C. Clarke y Stanley Kubrick, a partir de un relato corto de Clarke titulado “The Sentinel” escrito en 1951, desarrollaron la idea de la película y novela «2001: Una Odisea en el Espacio». Y Marvin Minsky fue la persona que ayudó a dotar de credibilidad a la IA de la película.

Posiblemente, la idea de Minsky era la de asesorar al equipo y a Clarke de modo que HAL fuese capaz de superar el test de Turing. Este test es una forma de medir la capacidad de una entidad artificial para mostrar un comportamiento inteligente equivalente o imposible de diferenciar del de un humano.

Pero hoy en día, ni siquiera la más reciente demostración de Google Duplex, la IA que supuestamente es capaz de realizar llamadas de teléfono y hablar con humanos, sería capaz de pasar este test. Por lo visto, la espectacular demostración en Google IO habría sido “apañada” lo suficiente como para desvirtuar el propósito de la misma: escenificar una IA autónoma y no diferenciable de un humano.

Juego de acrónimos: IA, ML y DL

Llegados a este punto, podemos pararnos a diferenciar tres términos que generalmente se confunden. La Inteligencia Artificial (IA) es el paraguas general bajo el que se desarrollan los intentos por parte de los seres humanos de hacer que una entidad artificial, sea una máquina o un robot, se comporte de un modo inteligente. Los ordenadores son la máquina o entidad artificial perfecta para ello, por supuesto, y los avances en la potencia de cálculo de los chips son la base del estado de la IA en el momento actual.

De momento, prácticamente todos los avances en IA que nos sorprenden estos últimos tiempos, son logrados usando ML y DL sobre un hardware cada vez más eficiente y usando ingentes cantidades de datos para «entrenar» a las redes neuronales. Incluso Google y Microsoft han desarrollado sus propios módulos computacionales basados en chips diseñados de forma específica para ML, muy diferentes a los que conocemos de Intel o AMD. NVIDIA, por su parte, ha usado sus tarjetas gráficas para procesamiento de IA. Y, de momento, solo estamos en los albores de lo que se puede conseguir.

Mismos conceptos, diferente tecnología

Con todo, merece la pena recordar que lo que estamos viviendo hoy no es más que la recuperación de los conceptos planteados hace décadas por los padres de la IA, desarrollados en la década de los 50 del siglo pasado. Los retos que se plantearon entonces (y no se superaron) son los que se están abordando ahora con bastante éxito. En su día, los pioneros de la IA vieron cómo la tecnología no estaba a la altura, pero parece que ahora sí está a un nivel suficiente como para empezar a pensar que las máquinas podrán comportarse de un modo indistinguible de un humano.

Los éxitos tales como AlphaGo de Google y DeepMind (DeepMind fue adquirida por Google) son posibles gracias a Machine Learning. Su facilidad para batir a los maestros de Go ha sido noticia en las portadas de los medios de todo el mundo. Con todo, no estamos aún ante una IA ideal. Es un sistema experto, que ha aprendido por sí mismo sin reglas “If.. then”. Pero un sistema experto únicamente en esa materia. Las redes neuronales empleadas estaban «tuneadas» para que identificasen los elementos del juego, pero este y no otro.

IBM ganó el concurso “Jeopardy” en su día en EEUU contra concursantes humanos, pero, a pesar de ello, algunas respuestas eran propias de niños de tres años y totalmente absurdas. Las reglas «If… then» y algoritmos clasificatorios no siempre funcionaban bien.

Pero ahora tenemos una tecnología bastante más avanzada que en el pasado, e incluso ya hay hardware específico para integrarse en los smartphones, como la NPU (Neural Processing Unit) del procesador Kirin 970 de los Huawei Mate 10 o Huawei P20 y P20 Pro. Las redes neuronales se entrenan en la nube pero se «cargan» en los dispositivos para acelerar tareas relacionadas con el reconocimiento de voz o de imágenes.

La Inteligencia Artificial (computacional) está en aún en su infancia. Pero se ha avanzado más en los últimos años que en las décadas precedentes. Y estamos cerca de conseguir un HAL 9000 en la vida real, al asentarse las bases tecnológicas para democratizar campos como Machine Learning usando métodos como el aprendizaje profundo (DL) sobre redes neuronales.

Pero hablamos de IA computacional. De momento es muy atrevido asociar IA con pensamiento en el sentido humano. Los sistemas de IA aprenden sin un conocimiento previo (IF…THEN) a través del entrenamiento exhaustivo usando grandes cantidades de datos, pero la intención previa sigue siendo patrimonio de los programadores. Por lo menos por el momento.

 

sábado, 9 de mayo de 2020

TELETRABAJO (¡qué bonito nombre tienes: Teletrabajo!)



     Ahora que se ha puesto de modo (¡a la fuerza ahorcan!) el teletrabajo, todo el mundo habla de él.

     Tiene un bonito nombre: teltrabajo.

    ¿Es un trabajo que se realiza mirando la "tele"? Nooo. Es trabajar en casa; trabajar utilizando la tecnología y las telecomunicaciones. Empresas y multinacionales de mucho rango ya lo utilizan desde hace muchísimos años. En España, eso era algo futurista, algo más relacionado con la ciencia ficción que con la realidad palpable, constante y sonante. Pero eso ahora ha cambiado por completo. ¡Y cómo ha cambiado!.

     Bueno, realmente no ha cambiado; nos lo ha impuesto un bichito que todo el mundo sabía que estaba ahí (también lo sabían los políticos, pero como era muy pequeño, no le hacían caso, como ocurre en la vida real con las relaciones entre políticos, pueblo llano -el pópulus- y pueblo de la realeza -bellatores-) pero al que nadie hacía caso, hasta que el bichito, de tanto y tanto llamarnos, se ha hecho notar de una forma un tanto socarrona además de con muy mala leche. Cuando ha dicho el bichito ¡aquí estoy yo!, todo el mundo se ha cobijado bajo el techo de su casa o de lo que tuvieran y ahí se han quedado. Con ello, los "confitados" (más que confinados) no han tenido más remedio que teletrabajar unos (mirando la tele y viendo series de una manera descontrolada y descuajaringada) y trabajar utilizando las telecomunicaciones otros.

     Entre los que trabajan utilizando las telecomunicaciones están los niños, adolescentes y jóvenes estudiantes que se han visto relegados en sus casa de la noche a la mañana (y luego también a la noche para también seguir a la siguiente mañana y así muchos, muchos, muchos días) y no han tenido más remedio que teletrabajar (unos mirando la tele y viendo series de una manera descontrolada y descuajaringada) y trabajar utilizando las telecomunicaciones otros (móvil más móvil, más móvil, ....). Pero el teletrabajo bien entendido (y ahora en serio) tiene sus pros y sus contras.

     Qué cada uno busque sus pros y sus contras, que seguro son y serán diferentes en función de cada uno de nosotros, pero hay algo que es invariable y que no se modifica ni se modificará a corto plazo (todo se andará, ya que a la fuerza ahorcan) en cada uno de nosotros.

     Hay pros y hay contras; hay ventajas y hay inconvenientes. Anotaremos las ventajas y lo inconvenientes, o, mejor dicho, los problemas y los beneficios que nos acarrea o nos puede acarrear el teletrabajo, pero esta vez bien entendido. Lo enfocaremos a la educación, al aprendizaje de niños, adolescentes y jóvenes, pero también se podría extrapolar a cualquier otro trabajador que realice dicha labor desde su casa o que se la hallan impuesto (que no ha sido por "motu propio", vamos).



     PROBLEMAS - INCONVENIENTES

     - Los niños, adolescentes y jóvenes no saben estudiar por sí mismos. En realidad no quieren hacer nada por sí mismos. No están acostumbrado a hacerlo.
     - Los niños, adolescentes y jóvenes están acostumbrado a la inmediatez de Internet.
     -Los niños, adolescentes y jóvenes están muy ilusionados y muy convencidos que los exámenes que les propongan sus profesores los van a realizar con los apuntes de clase delante y con alguien que les ayude en  superarlos.
     - Los niños, adolescentes y jóvenes no tratan de recordar (estudiar) en casa lo aprendido en clase ese día para no olvidadlo y adelantar estudio y materia para el día que llegue el examen.
     - Los niños, adolescentes y jóvenes no tienen organización a la hora de estudiar en casa. No tienen una habitación que los aísle y evite la distracción.
     - Los niños, adolescentes y jóvenes tienen muchos problemas en el uso de la ofimática, tanto con un PC portátil como de sobremesa. Tienen tanta adicción al teléfono móvil que todo, absolutamente todo, lo hacen o tratan de hacerlo con el el teléfono móvil.
     - Los niños, adolescentes y jóvenes tienen muchísimos problemas para interpretar correctamente lo leído. Tienen muchísimas faltas de ortografía, fruto delo poco que leen y lo mucho que utilizan el teléfono móvil, sobre todo cuando utilizan aplicaciones para comunicarse entre ellos o con sus familias.
     - Los niños, adolescentes y jóvenes no saben expresarse correctamente. No utilizan los signos de puntuación para expresarse por escrito y dar sentido a las frases o a lo que quieren expresar.
     - Quienes no se adapten, desaparecerán. Resistirse al cambio es una actitud muy humana que nunca lleva al éxito.


     VENTAJAS - BENEFICIOS

     - Hay que modificar y adaptar las rutinas existentes y el comportamiento social. No hay procesos claros y establecidos ala hora de trabajar desde casa ni delas buenas prácticas que requiere este modelo de trabajo: horarios, puntualidad, gestión de los comportamientos sociales en la numerosas videollamadas (enseñar desde como se entra en una reunión en remoto hasta cómo se interviene o también solicitar la grabación del encuentro).
     - Hay que mostrar adaptabilidad, empatía y solidaridad.
     - Hay que alcanzar una destreza digital, lo llamado transformación digital.
     - Hay que convertir el teletrabajo forzoso y desubicado en algo estabilizado.
     - Peligra entre el 30% y el 40% de todos los puestos de trabajo. Si se invierte lo suficiente en educación, esos trabajos que se destruyen serán sustituidos por otros nuevos. La Inteligencia Artificial terminará por acabar con los trabajos manuales.
     - Todas las empresas e individuos, independientemente de su sector, deberían comenzar a prepararse y analizar tanto los riesgos como las oportunidades que las nuevas tecnología representan para ellos.
     - La tecnología es neutra, pero no quienes la utilizan. A los robots debemos inculcarles un conocimiento ético que impida la destrucción de nuestra sociedad, de igual forma que a nosotros nos enseñan qué está bien y qué está mal cuando somos pequeños.

jueves, 30 de abril de 2020

ASÍ TE CONTROLA (Y TE VIGILA) TU MÓVIL


https://elpais.com/elpais/2019/09/10/eps/1568119303_601504.html

Marta Peirano


          Sacamos el móvil del bolsillo unas 150 veces al día, aunque creemos que lo usamos en la mitad de las ocasiones. Lo cierto es que nuestro smartphone genera un volumen brutal de datos que nos localizan, nos vigilan y nos transforman. Puro petróleo para las grandes empresas tecnológicas.

          Lo más importante son los metadatos; no el mensaje que mandas, sino a quién se lo mandas, desde dónde y con quién. Sobre todo, desde dónde. Aquel que sabe dónde estás en todo momento te conoce mejor que tú mismo. Aquel que sabe dónde has estado durante los últimos tres meses puede predecir dónde estarás de ahora en adelante con una precisión del 93%. Y tú se lo dices a mucha gente. Tu móvil tiene una cámara por delante, otra por detrás, un micrófono, una media de 14 sensores y al menos 3 sistemas independientes de geoposicionamiento. Tu tarjeta SIM manda señales a las antenas más cercanas para recibir cobertura. Tu receptor de GPS se comunica con satélites para calcular su propia posición. Tu wifi busca constantemente redes a las que conectarse, gritando el nombre de todas a las que se ha conectado antes. Tu bluetooth busca objetos con los que hacer una red. Y tus aplicaciones registran cada uno de tus movimientos, incluso cuando has apagado esa función.

          No necesitas sacar el móvil, pero lo haces unas 150 veces al día. Si te parecen muchas es porque la mayoría de las personas que tienen un smartphone piensan que lo utilizan menos de la mitad de tiempo que lo usan en realidad. Probablemente lo desbloqueas para ver si te ha llegado un mensaje por Messenger o WhatsApp, si ha pasado algo en Twitter, si a alguien le ha gustado tu foto en Instagram o en Facebook, o si has recibido un correo importante. Una vez dentro, es difícil soltarse. Las aplicaciones más populares del mundo están diseñadas para que, cada vez que las usas, recibas una microdosis de dopamina, en un circuito llamado cámara de condicionamiento operante o, más popularmente, caja de Skinner, por el psicólogo que la creó. Por eso desbloqueas el móvil tantas veces sin darte cuenta. Las mejores mentes de tu generación trabajan para las grandes empresas tecnológicas, buscando maneras de que estés el máximo tiempo posible tocando el  móvil de manera inconsciente. Cuanto más tiempo pasas, más datos generas. Y esas empresas viven de convertir tus datos en alimento para sus algoritmos predictivos de inteligencia artificial.

          Los algoritmos necesitan una gran cantidad de datos para mejorar sus predicciones. Google los saca del correo, los mapas, el buscador, YouTube y el sistema operativo Android, entre otros. Amazon, de la tienda, el Kindle, los altavoces inteligentes y AWS, Facebook, de la red social, Instagram, WhatsApp y Oculus. Netflix, de las series. Uber, de los coches. Spotify, de las listas. Airbnb, de las vacaciones. Tinder, del sexo. Match, del amor.


          Pero también necesitan una dieta variada, por eso trabajan con los data brokers, empresas que rastrea el resto de los datos que hay desperdigados y los ponen en un sólo lugar. Manejan otras fuentes: tarjetas de puntos, seguros,, marketing directo, hackers, inmobiliarias, bibliotecas, operadoras, laboratorios de análisis, bancos, farmacias, Administraciones. Las plataformas digitales saben lo que haces cuando estás conectado. Los data brokers eran los únicos que sabían lo que haces cuando no lo estás. Ahora hay cámaras conectadas a sistemas de identificación facial que te siguen sin que lo sepas, lectores automáticos de matrícula, satélites capaces de leer tu marca de reloj. Los algoritmos predictivos digieran los datos para saber anticiparse a tus deseos, pero no siempre para satisfacerlos. También para cambiarlos.

          Cuando tus datos vuelven a ti, han transformado el mundo.Han elegido los anuncios que ves y el precio que pagas por los billetes de avión, por alquilar un coche, por el seguro dental. Han cambiado tus posibilidades de conseguir un crédito, de acceder a un puesto de trabajo, de recibir un pulmón. También eligen las noticias que aparecen en tu timeline, los Pokémon que aparecen en tu mapa, los cinco mejores restaurantes, la mejor manera de llegar de A a B. Porque te has convertido en el microobjetivo de cientos de campañas. No todas son comerciales.

          La campaña pro-Brexit convenció a millones de británicos de que los turcos estaban a punto de invadir Europa. La campaña pro-Trump convenció a millones de americanos de que había bandas de centroamericanos "infestando" EEUU. La agencia de desinformación rusa convenció a medio millón de activistas afroamericanos de que no votaran, porque votar a Clinton era peor que votar a Trump. Cuando vuelven a ti, tus datos ya no son datos; son una visión del mundo. Y no sabes quién la financia, ni con qué fin.


miércoles, 29 de abril de 2020

SI EL ALGORITMO DE INSTAGRAM LO SABE TODO SOBRE MÍ, ¿NO TENGO DERECHO A QUE ME LO CUENTE?

https://elpais.com/elpais/2020/04/07/icon/1586260277_914273.html

Wendon Penderton 9-abril-2020

          Hace tiempo que ando preocupado por culpa de la lupa de Instagram. Cuando le doy a la lupa me sale una colección de hombres, todos jóvenes, guapos, barbudos, con cuerpos normativos. Algunos aparecen solos y otros emparejados. Todos son homosexuales, como yo. No me pregunte cómo lo sé, pero lo sé. Creo que Instagram también lo sabe, y lo que me preocupa concretamente es que piense que eso, y solo eso, hombres barbudos, es lo que a mí me interesa en la vida. ¿Y si tuviera razón?

 Image: Getty / Montaje: Pepa Ortiz
        
          Instagram, por si usted no lo sabe, es una red social orientada a pequeñas pantallas que da todo el protagonismo a las imágenes, confinando al texto a un lugar marginal. Para entendernos, en Twitter y Facebook la gente dice cosas y establece conversaciones en las que participan otros usuarios, en Instagram la gente enseña fotos y, en caso de producirse conversaciones, tienen lugar en privado, vis a vis. Cuando uno abre la app ve una cuadrícula infinita de imágenes. Son las fotos que publican todos los usuarios a los que uno ha decidido seguir. Como todas las redes sociales, tiene una herramienta de búsqueda. Es un icono con forma de lupa debajo de la cuadrícula de imágenes. Nada más tocar la lupa, antes de que le digamos a Instagram qué andamos buscando, ella ya nos ofrece una serie de imágenes que piensa que nos pudieran interesar. Cuando digo que Instagram piensa no estoy echando mano de una figura literaria. Instagram piensa, y piensa sola.

          A esto nos referimos cuando hablamos de “El Algoritmo”. Y lo mismo que piensa Instagram piensa Twitter, piensa Facebook, piensa Whatsapp, piensa Google, piensan Netflix y Amazon, piensa el sistema operativo de su teléfono móvil e incluso piensan todos juntos, porque se prestan –o roban– información entre ellos. Podemos referirnos a un algoritmo global, un Gran Hermano que resulta de la suma del trabajo y la red que forman todos los algoritmos o podemos referirnos a todos esos pequeños algoritmos a los que les contamos cosas sobre nosotros mismos constantemente, cada vez que hacemos un click o damos un like.

          Esto no es conspiranoia, se sabe. Se sabe que los teléfonos tienen siempre el micrófono abierto. Puede usted negar el permiso a las apps para usarlo, pero nunca puede desactivar el micrófono del todo. Pruebe a mirar a su móvil ahora mismo y diga, alto y claro, “OK Google” u “Hola Siri”. Ya verá como le está escuchando. Lo que no sabemos es qué hace con lo que escucha, si esa información se queda ahí o se envía a alguna parte. Sabemos también que Google Maps sabe dónde y cuándo hay un atasco porque recibe la localización geográfica de todos los conductores que lo llevan encendido y sabe perfectamente dónde están y a qué velocidad circulan. Lo mismo pasa con Facebook, que sabe sobre qué cosas está usted discutiendo, en qué sitios hace click o da un like.

          Amazon sabe qué anda usted pensando en comprar o qué películas decide ver o no ha llegado a ver pero casi, como pasa con Netflix. Facebook además es pariente de Whatsapp, así que tiene acceso a las agendas telefónicas de todos nosotros. Da igual que usted no le haya dado su teléfono a Facebook, porque yo lo tengo a usted en mi agenda de contactos y le he dado permiso a Whatsapp para mirar ahí dentro, así que WhatsApp le pasa esa información a Facebook. Es bastante probable que Facebook le sugiera ciertas amistades: piensa que conocemos a esas personas porque tenemos amigos comunes, o porque guardamos su teléfono en la agenda.

          No sería demasiado improbable que usted se encuentre en la sección “Personas que quizá conozcas” a su jefe, aunque no le haya dicho usted a Facebook dónde trabaja, o incluso a su masajista, aunque jamás se le haya ocurrido a usted contarle a nadie que va al masajista cuando necesita liberar un poquito de tensión. El algoritmo es en parte todo esto. Es la inteligencia artificial que decide qué escaparate le muestra a usted del mundo a través de su móvil y sus redes. El algoritmo decide a cuáles de sus amigos va usted a ver cada mañana o a cuáles de ellos va a silenciar. El algoritmo decide sugerirle a usted unos productos concretos en esos anuncios personalizados que le aparecen cada vez que navega o abre alguna red social. El algoritmo lee su correo de Gmail, clasifica todos y cada unos de sus clics, probablemente localiza palabras significativas que usted ha pronunciado en voz alta, cuenta sus pasos y hasta mide su ritmo cardíaco, echa todo junto a una olla y extrae información.

Getty Images

          No sólo datos, sino información con significado. Con esa información configura su ventana al mundo. Usted tendrá las vistas que El Algoritmo decida convenientes. Y aquí es donde volvemos a la lupa.

          Instagram piensa que a mí me interesa ver hombres homosexuales normativamente guapos, ha llegado a esa conclusión analizando todas mis acciones, observándome en la más absoluta intimidad durante meses. Yo llegué a Instagram en un momento de crisis matrimonial, en la antesala del divorcio. Aunque yo todavía no lo sabía (o no lo quería saber), usé Instagram para volver a colocarme en el mercado, para dejarme ver. No opté por la estrategia de exhibición directa del cuerpo, porque no
me sentía competitivo en ese aspecto, sino que decidí tejer una tela de araña, construir un personaje, y dejar caer alguna foto mía bien escogida entre un fondo de fotografías de gatos, playas, libros, plantas, y curiosidades. Como cuando te daba vergüenza comprar una revista porno y te llevabas también el periódico, El Jueves y dos pasatiempos.

          Conocí a algunos hombres, cobré algunas piezas, hice bastante el ridículo y un día me topé con la despiadada radiografía de la lupa. Porque a la lupa no la engañas tan fácilmente, ella sabe que por muchas fotos que subas leyendo un libro o restregándote con el gato tú lo que quieres ver son hombres y eso es lo que vas a tener. Hombres. Hombres con barba anunciando al mundo que van a echarse la siesta, solitos, con un pijama de Pokémon o “La Guerra de las Galaxias”, con una camiseta de “Los Pollos Hermanos” como si tuvieran 16 años, sudando en el gimnasio con brazos como jamones serranos pero con su carita de oops, I did it again.

          Hombres con barba haciendo playback de pasarlo muy bien, congelados por un flash en la pista de baile. Todo barbudos que quieren ser vistos por otros barbudos. Cuando me vi reflejado en ese espejo de la sicalipsis homosexual infantilizada del siglo XXI decidí que había llegado el momento del cambio. Dejé de seguir a todos los hombres que seguía solamente porque estaban buenos y seguí a la NASA. Seguí a autores, editoriales, atletas del yoga, usuarios de la psicodelia o expertos en plantas suculentas a diestro y siniestro.

          El esfuerzo surtió efecto y los hombres se esfumaron de la lupa. No del todo, siempre había alguno incluido en el mosaico, pero me encontraba mucho más cómodo con mi nuevo yo: una persona con intereses mucho más variados y maduros. Pasó el tiempo y me olvidé del asunto, pero los hombres han vuelto. Hace semanas que están ahí. En un ejercicio de expiación impúdica hice una captura de mi lupa plagada de barbas y torsos poderosos y compartí en Facebook ese retrato íntimo de mi psique realizado por El Algoritmo. Miren ustedes, aquí me tienen, no se puede estar más desnudo que mostrando la lupa de Instagram, lo que veis es lo que soy.

          Invité a mis amigos a hacer lo mismo, a asomarse a su mente desnuda sin necesidad de gastarse un dineral en psicólogos y poner el dedo sobre la lupa. Los resultados nos han proporcionado bastantes momentos de diversión, hemos llegado incluso a leernos las lupas como tiradas de tarot y a sustituir el “revisa tus privilegios” por “revisa tu lupa”. Comparamos nuestras lupas y anhelamos aquellas que presentan más variedad de mundos y paisajes o menos porcentaje de masculinidad normativa.

          Después de desayunar todos los días miro qué me dice la lupa, se ha convertido en una costumbre en estos días de encierro. La chufla está muy bien, pero yo quiero saber. Me encantaría saber cuáles de mis acciones han llevado a la lupa a pensar que la mejor estrategia es enseñarme una legión de hombres como si fueran las frutas de las tragaperras. No es que crea que la lupa se equivoca, es que si ella lo sabe todo sobre mí, yo quiero saberlo también. Al fin y al cabo, si El Algoritmo es la suma mente colmena, si es un dios que sabe más de todos nosotros que nosotros mismos, ya que va a sacarnos a rastras del armario y a contarle a usted que su marido le pone los cuernos (desde que existen los teléfonos móviles y, sobre todo, las redes sociales resulta prácticamente imposible mantener oculta una infidelidad continuada), ya que va a denunciarlo a usted a la policía porque ha salido de su domicilio saltándose la cuarentena, aprovechémoslo para saber más sobre nosotros mismos. Creo que tengo derecho a que El Algoritmo me cuente todo lo que sabe de mí, y espero que en el futuro próximo la Declaración Universal de Los Derechos Humanos y la Constitución se ocupen específicamente de este asunto.

          Y otra cuestión que me interesa muchísimo es si la lupa está poniendo algo de su parte en todo esto. ¿Pudiera ser que Instagram nos empuje sibilinamente a tontear un poco por ahí? ¿Es posible que Instagram quiera que la usemos para ligar? Es curioso, porque ya existen apps específicas para ligar. Sin embargo, parece que Instagram nos resulta mucho más cómodo porque nos permite ligar de manera que parezca que estamos haciendo otra cosa.

          No pretendo escurrir el bulto, es bastante probable que tenga la lupa que me merezco, pero hace tiempo que sé que El Algoritmo no es un mero observador de la realidad, que tiene dueño y sirve a sus propios intereses, que no deben de ser muy parecidos a los míos. He llegado a la conclusión de que conviene desconfiar un poco de la lupa. Al fin y al cabo, tan mala es la falta de autoobservación como el exceso. Señora Lupa: a todos nos gusta que nos hagan casito, sentirnos deseados. Reconozco que me gustan mucho los hombres, pero creo que está siendo usted un poco intransigente conmigo. Hace un par de días que me afeité la barba. Cuando tomé la decisión no estaba pensando en nada de esto, pero lo primero que hice fue subir a Instagram una imagen de mi nuevo rostro. Estoy ansioso por ver el reflejo en la lupa.




viernes, 24 de abril de 2020

SOLO ENTENDERÁS EL RESULTADO DE ESTA OPERACIÓN SI SABES DE MATEMÁTICAS


memes

          Tal y cómo está escrita la expresión matemática, el cálculo da como resultado 120. Primero realizaríamos la multiplicación (220 x 0'5), y el resultado los restaríamos a 230. Total: 120. Luego, ¿por qué en la imagen se afirma que el resultado correcto es 5! y no 120?

          Lo gracioso del asunto es que ambos resultados son correctos, ya que 5! (un número con un cierre de exclamación es la manera de representar 5x4x3x2x1; es una forma de representar las funciones factoriales, lo que significa que hay que multiplicar todos los números enteros positivos que hay entre el número que acompaña el cierre de exclamación (en este caso, el 5 y el 1).

sábado, 2 de noviembre de 2019

INTERNET



Marta Peirano (periodista especializada en tecnología y autora de "El enemigo conoce el sistema" (Debate).


Jaime Rubio Hancock.
          Internet lleva mal los 50 años. Nos espía, nos controla y nos genera adicción. Nos mantiene en un estado de ansiedad permanente que gestionamos con series, comunidades friquis y vídeos de cocina, maquillaje, deporte o debate político. Sus centros de procesamiento de datos liberan la misma cantidad de CO2 en la atmósfera que un país desarrollado de tamaño mediano. Sus redes sociales han hecho presidente a Donadl Trump. No podemos vivir sin él, y no podemos vivir con él. Después de dos décadas en las que todo parecía prosperar, la relación se ha vuelto tóxica. El problema no es Internet, pero es algo que le pasa a Internet. Un virus oportunista que tiene muchos nombres: capitalismo extrativista, capitalismo de la vigilancia, capitalismo de plataformas y feudalismo digital.


EL PRIMER MENSAJE DE INTERNET SÓLO TENÍA DOS LETRAS

          Está claro que ya no es el proyecto que inauguraron Leonard Kleirock (por aquel entonces tenía 35 años) y su estudiante Charley Kline un 29 de octubre de 1969, a las 22:30 horas local (tres meses antes, Neil Amstrong y Buzz Aldrin se dieron el primer paso por la Luna), enviando el primer mensaje desde la Universidad de California en Los Ángeles al Instituto de Investigación de Standford, en Menlo Park.


El profesor Leonard Kleinrock junto a un procesador de mensajes en la habitación donde nació Internet, en la Universidad de California en Los Ángeles. Imagen de 2011. REUTERS

          Su máquina era una Sigma 7 de 32 bits, la última que fabricó Scientific Data System antes de que la comprara Xerox en 1969. Al otro lado estaban Douglas Engelbart, el joven programador Bill Duval y una SDS 940, la primera máquina con un sistema operativo de uso directo compartido y la futura anfitriona de Community Memory, el primer boletín de noticias virtual. Para conectarlas, la empresa BNN fabricó dos enormes conmutadores de paquetes llamados IMP (Interfase Message Processor, Procesador de Mesajes de Interfaz - una minicomputadora, pero "mini" para los estándares de la época). La máquina pesaba unos 400 Kg y había costado 80.000 dólares, lo que 50 años más tarde equivaldrían a medio millón de euros. Su tamaño era similar al de una nevera. Ambos conmutadores los conectaron a través de una línea telefónica de AT&T. La conexión era tan inestable que se cortó antes de llegar a la mitad.

           Entonces Internet todavía se llamaba ARPANET, un proyecto de la Guerra Fría que había perdido el interés del Departamento de Defensa de Estados Unidos. ARPA era la Agencia de Proyectos de Investigación Avanzada, red experimental de ordenadores que Eisenhower mandó crear en 1958, cuando Rusia dejó obsoleto su sofisticado sistema de vigilancia aérea con el satélite Sputnik. ARPA estaba bajo la dirección de Larry Roberts, que había compartido despacho con Kleinrock en el MIT (Massachusetts, Institute of Technology, Instituto Tecnológico de Massachusetts). Allí, Kleinrock había publicado el primer artículo sobre el envío de datos en paquetes, una de las nociones básicas de la tecnología de Internet. Esta red, ARPA net, comenzó con cuatro universidades: UCLA, Stanford, Utah y California-Santa Bárbara. Kleinrock se encargó de seguir y estudiar su funcionamiento, por eso le tocó hacer la primera prueba.

          El 29 de octubre de 1969, Kleinrock y su estudiante Charles Kline enviaron su primer mensaje desde UCLA (Universidad de California Los Ángeles) a la Universidad de Stanford, a 600 kilómetros de distancia, donde estaba el otro ordenador IMP. Sólo había que enviar el comando LOGIN, el comando que se usa para poder entrar como usuario en un sistema. UCLA enviaría las tres primeras letras, "LOG", tecleadas por Kline, y el ordenador de Stanford completaría la palabra tecleando "IN". Además de eso,  para asegurarse de que todo iba bien, Kleinrock estaba también al teléfono con Standord:

     - ¿Os ha llegado la "L"?

     - Sí.

     - ¿Os hallegado la "O"?

     - Sí.

          Lo que no llegó fue la "G". La computadora de Stanford se cayó, por lo que el primer mensaje enviado con éxito en Internet solo fue "LO". Tras una hora más de trabajo y un nuevo intento, las tres letras de "LOG" cruzaron esos 600 Km. Había nacido Internet.


La sala desde donde se envió el primer mensaje se reconstruyó en 2011. En la puerta hay una placa que dice "Lugar de nacimiento de Internet". Robyn Beck (AFP/Getty Images)

La placa dela puerta de la sala desde la que se envió el prime mensaje dice: "Birthplace of the Internet". Aquí nació internet. Robyn Beck. (AFP / Getty Images)



HE AQUÍ EL PRIMER MENSAJE DE INTERNET

          Fue un mensaje poco solemne si lo comparamos con otros estrenos. En 1844, Samuel Morse envió por telégrafo un mensaje de Washington a Baltimore con la frase What hath God wrought? (¿Qué nos ha traído Dios?). Alexander Graham Bell pudo decirle por teléfono a su asistente en 1876: Señor Watson, venga aquí. Quiero verle, en la primera conversación telefónica registrada (aunque Meucci inventara el teléfono años antes son poder patentarlo). En Internet tenemos "LO".

          En los textos de historia de Internet se suele comparar este "lo" a "Lo and Behold", una expresión frecuente en las Biblias en inglés, que en las versiones en español suele traducirse o aparecer como "he aquí". A Kleinrock le gusta decir que aquel "LO" fue el "Lo and Behond" (oh, milagro; he aquí; ecce homo) de nuestra era. Fue el título que el director alemán Werner Herzog le puso a su documental sobre la Red en 2016. Kleinrock decía en el primer episodio que "no podríamos haber pedido un mensaje más breve, más poderoso, más profético".

          Aunque hoy se habla del "cumpleaños de Internet", la ocasión no se celebró particularmente. Después de aquel mensaje no hubo ruedas de prensa ni nada parecido, más allá de una nota en un diario de trabajo de la universidad: "22:30, hemos hablado con SRI (Stanford Research Institute) de servidor a servidor." A nadie se le ocurrió dejar mayor constancia. Hay una foto del cuaderno en la página de Kleinrock en la web de la universidad, donde sigue trabajando a sus 85 años.


Nota de Kleinrock en su cuaderno, haciendo referencia al primer mensaje enviado por Internet. UCLA.

          La UCLA envió una nota de prensa en julio de 1969 que recogía declaraciones del propio Kleinrock: " Por el momento, las redes de computadoras están en su infancia. Pero a medida que crezcan y aumente su sofisticación, probablemente veremos cada vez más servicios de computadoras, que, igual que los servicios de electricidad y teléfono, darán servicio a hogares y oficinas de todo el país."

          El profesor también contaba que las redes de ordenadores "no son un concepto nuevo del todo", aunque hasta ese momento se trataba de redes para funciones muy concretas, como el sistema de reservas de aerolíneas Sabre. ARPA no tenía propósito definido, como ha quedado claro años después, cuando usamos Internet para ver series, buscar recetas, enviar mensajes y buscar una ruta sin atascos, entre otras muchísimas cosas.

          Los medios no hicieron mucho caso; incluso el periódico de los estudiantes de la Univesidad, The Daily Bruin, apenas le dedicó al tema una esquina de su portada del 15 de julio: "Las computadoras del país se unirán aquí primero." El artículo detallaba que en el proyecto participaban 20 personas de UCLA, incluyendo a 15 estudiantes.

Leonard Kleinrock junto al ordenador desde el que se envió el primer mensaje de Internet. Robyn Beck (AFP/Getty Images). A la derecha de la imagen se puede apreciar el recorte del periódico de la univerdad donde se cita esta primera comunicación de Internet.

          El ordenador dejó de usarse en 1982. La universidad estuvo a punto de tirarlo a la basura. "Nadie pensaba que esta máquina fuera importante", explicó Kleinrock, que logró salvarla a tiempo.

          "Mandé aquel primer mensaje por Internet, pero fue como cualquier otro día, apenas les dí importancia. Estábamos intentando resolver un problema complejo. No estaba claro si iba a salir bien. Sabíamos que podría tener impacto, pero en aquel momento no lo tuvo. No fue un gran asunto. Lo que nos animaba era el desafío de ingeniería, la excitación de hacer algo nuevo. La recompensa no era monetaria, obviamente, sino resolver un problema y crear algo que otro usara", explicó Kleinrock en el marco de las jornadas de Onlife celebradas en Milán a principios de octubre.

          El pecado original de Internet fue la ingenuidad de los pioneros. La Internet original era un lugar de encuentro de investigadores. Era obvio que aquello iba a explotar. "Estaba claro que iba a estar en cada casa, pero no supe ver, ni yo ni nadie, la poderosa parte de comunidad (las redes sociales) y su impacto en cada uno de los aspectos de la sociedad. No fue hasta que el correo electrónico inundó la red en 1972 que me dí cuenta del poder que tendría Internet al permitir la interacción entre gente", dice.

          Aún menos supo intuir que se usaría la Red para el mal: mandar spam, suplantar la personalidad, robar datos, y la llegada delos discursos de odio o noticias falsas. Es probable que más atención inicial no hubiera evitado estos problemas, pero los hubiera mitigado. "No necesitábamos seguridad ni privacidad. Nadie la necesitaba. Había algo incluido en la tecnología inicial llamado interfaz de línea privada que estaba cifrado. Pero nadie lo usaba porque no lo requería. Así que no se desarrolló", explica.



¿CUÁL FUE EL PRIMER USO ILEGAL DE INTERNET? LO COMETÍ YO EN 1973

          Los pioneros de Internet vivían en una red para miembros selectos cuyo uso estaba limitado a fines científicos. "¿Cuál fue el primer uso ilegal de Internet? Lo cometí yo en 1973", explica Kleinrock. Había ido a una conferencia en la Universidd de Sussex (Reino Unido). Al volver a Los Ángeles se dio cuenta de que se había dejado la maquinilla de afeitar. "Y la quería de vuelta. Era por la tarde en Los Ángeles, las 3 de la mañana en Londres, y pensé: ¿quién estará despierto a esta hora? Seguro que mi buen amigo Larry Roberts (otro de los padres de Internet)", dice. Entró en su programa desde su habitación tecleó: where Roberts? (¿dónde Roberts?). "Lo que hacía este programa era preguntar a otros ordenadores, a todos en aquel momento, y miraba quién estaba en sesión en cada máquina. Espere tres minutos y apareció Roberts, abrí un chat y le pedí que me trajera mi maquinilla al día siguiente. Este fue un uso personal, no científico. Así que en cierto sentido fue el primer acto ilegal", explica.

          Esta ingenuidad sobre el concepto de maldad en Internet es algo que dejó a estos investigadores sorprendidos cuando vieron el primer mensaje de spam el 12 de abril de 1994. Era sobre la lotería de green cards, los permisos de residencia permanente en Estados Unidos. El asunto de correo electrónico sugería que era el último sorteo y animaba a los receptores a responder para pedir más información. De ahí a exigirles algo de dinero a cambio de nada, solo había un paso.

         Cuando Kleinrock vio aquellos mensajes falsos en 1994 se sorprendió. El único modo de remediarlo era relanzar Internet, que requería desconectar todos los equipos y volver a empezar. Ya era demasiado tarde. Como ahora. "A las grandes compañías tampoco les importa. Explotan la falta de privacidad. La compañía no hacía el mal, ¿te acuerdas?", dice en referencia a Google, cuyo lema inicial era "No seas malo". "Pero la gente se corrompe con mucha facilidad", añade Kleinrock.



INTERNET ES FRÁGIL

          Internet es frágil. Sus fundamentos están construidos sobre columnas enclenques, que requieren de parches y andamios. "Déjeme que te cuente el motivo", dice Kleinrock. "Los programadores son una mala raza. ¿Por qué? Prueban algo de código, no funciona. Prueban como cambiar algo, no funciona. Prueban algo distinto, ¡funciona, ya está!. Pero yo, como teórico, matemático, tengo que analizarlo y evaluarlo, ¿cuál es su rendimiento, funciona bien? ¿Qué límites tiene? Los desarrolladINTERores no piensan así. Solo quieren que funcione,  cuando lo hace, lo lanzan", explica. Para un sistema operativo o una app es importante ser los primeros en el mercado, no los más perfectos en seguridad o privacidad. Para eso ya están las actualizaciones posteriores. Hay mucho dinero en juego para quien llega primero.

          Pero mientras llegan las actualizaciones, los malos encuentran montones de agujeros. Así se ha hecho Internet, añadiendo pisos encima de fundamentos a medio hacer, que se iban reparando, mientras más y más pisos se colocaban encima. Los agujeros que quedan y que se van creando son enormes.




DESARROLLO DE INTERNET

          Cuatro años más tarde de la creación de ARPANET, en 1962, durante la crisis de los misiles cubanos, la agencia le encargó a un ingeniero eléctrico de origen polaco, Paul Baran, que buscara una topografía de red capaz de resistir un ataque nuclear. Baran predijo que estaría compuesta de ordenadores y sería digital. Y dibujó tres topografías de red distintas, de la más frágil (centralizada) a la más resistente (distribuida), donde la transmisión de datos quedaba repartida equitativamente por todos los nodos. Si no había un centro de operaciones, nadie podría destruir la operación.

Paul Baran, uno de los padres desconocidos de Internet.

          Baran inventó también un ingenioso sistema burocrático para que los paquetes de datos circularan por esa red de la manera más segura y eficiente posible. Así nació el sistema de conmutación de paquetes (packet-switching), el principio que rige las comunicaciones de datos en redes informáticas de todo el planeta. Y que fue demostrado aquella noche de otoño, Lo and Behold. Pero para entonces, el presidente era Richard Nixon y EEUU había puesto un hombre en la Luna, el Concorde había roto la barrera del sonido y 25.000 personas se habían juntado para hacer el amor y no la guerra en un festival de la Costa Este (festival de Woodstock, 15 al 18 de agosto de 1969). América estaba a otras cosas. Fue precisamente su desgracia lo que le permitió prosperar.

          En 1973, ARPANET tenía 40 notos conectados que intercambiaban archivos, pero la agencia estaba tan arruinada que trató de regalarle el proyecto a AT&T, y la operadora lo rechazó. Los ingenieros dijeron que era algo que no podían usar ni vender. Que no servía para nada. La verdad es que rechazaron el sistema de conmutación de paquetes de Paul Baran desde el primer minuto porque les quitaba el control absoluto sobre la red. En aquel momento, ni el gobierno de EEUU ni su principal operadora entendieron el potencial del experimento que pronto transformaría el mundo. Así fue como la red militar se convirtió en un proyecto humanista en manos de un puñado de profesores y estudiantes universitarios y siguió creciendo como infraestructura pública, conectando instituciones científicas y educativas.

          Al otro lado del Atlántico, el informático Donald Davies implementaba una red basada en la conmutación de paquetes para el Laboratorio Nacional de Física en el Reino Unido, y el ingeniero Louis Pouzin desarrollaba Cyclades en el Laboratorio Nacional de Investigación de Ciencias de la Computación francés. Todas las operadoras de Europa tenían su propio proyecto de red y eran públicas. La primera Conferencia Internacional de Comunicación por ordenador los reunió en Washington en 1972. Allí nace el International Network Working Group, con Davies , Pouzin y el carismático científico de la computación estadounidense Vint Cerf a la cabeza. Estos padre fundadores de Internet crearon los protocolos que rigen la Red desde entonces: el protocolo de control de transmisión y el protocolo de Internet, llamados TCP/IP.

Vinton Cerf

          Llegar a los protocolos TCP/IP fue una tarea titánica y un verdadero acto de fe. Había docenas de redes basadas en la conmutación de paquetes, pero completamente distintas en todo lo demás. Unas iban por línea telefónica, otras por satélite y otras por radio. Tenían que comunicarse todas con todas. Y ese era solo el problema técnico. Había un problema político: conectar infraestructura pública y privada entre países distintos sin dejar que nadie ejerciera control de las comunicaciones.

          Cerf los describe como una guerra santa. Los ingenieros europeos no querían que un nuevo Hitler, un Stalin o un Mussolini pudiera espiar a sus propios ciudadanos, educadores o científicos. Los estadounidenses no estaban tan preocupados porque sus operadoras era privadas. En un mercado de libre competencia, pensaban algunos, ninguna empresa podría ejercer un dominio lo bastante grande como para que pasara algo así. Finalmente, Pouzin y Davies encontraron la manera de que los paquetes de datos viajaran de forma fragmentada por rutas recalculadas en función del tráfico existente, el ancho de banda disponible y la cantidad de notos participando en la transmisión. Cada paquete lleva la información necesaria para que el mensaje se pueda recomponer en su lugar de destino. La noche de fin de año de 1983, ARPANET cambió los protocolos y adoptó el TCP/IP.


UNA ESTRUCTURA CAPAZ DE RESISTIRLO TODO

          ¿Qué clase de red podría sobrevivir a una guerra nuclear? Paul Baran encontró la respuesta: aquella cuya supervivencia no depende de un solo punto de la estructura y cuya carga se distribuye de manera equitativa por todos los nodos que la forman. Su famoso diagrama presenta tres topografías de red: una centralizada con forma de estrella, donde todas las comunicaciones pasan por un solo punto; otra descentralizada compuesta de constelaciones, y una tercera red distribuida de nodos interconectados en una estructura no jerárquica. Si repartes el control entre todos los usuarios, no solo reducen el poder que puede ejercer cada uno, sino que también repartes la vulnerabilidad del sistema. Esta es la clase de red, concluyó Baran, capaz de resistir un invierno nuclear, una catástrofe meteorológica y lo que haga falta.

          Además de la estructura, Baran pensó una manera de proteger las comunicaciones. Los paquetes de datos serían fragmentados y dispersos por toda la red, saltando de noto en nodo hasta llegar a su destino. De esta forma viajarían más deprisa, aligerando la carga total del sistema, pero también serían más difíciles de interceptar. Además, si un nodo quedaba comprometido, el invasor solo tendría acceso a un fragmento de la comunicación total. Y si un nodo era distribuido antes de hacer su trabajo, al menos una parte importante del mensaje llegaría a su destino y se podría reconstruir. Esta es la base del sistema de conmutación de paquetes que hace posible la Red. No solo no ha quedado obsoleto, sino todo lo contrario: está más vigente que nunca.

          Los ingenieros de la compañía de telecomunicaciones estadounidense AT&T no se tomaron la propuesta con deportividad. Era la némesis del sistema de conmutación de circuitos creado por Bell Telephone Laboratories. Para hacer una llamada, la operadora establecía de antemano un canal de comunicación con un ancho de banda predeterminado, como un único cable entre emisor y receptor por el que se desplazaba el mensaje entero. Un solo fallo y se cortaba la comunicación. Un solo nodo comprometido y todo el mensaje quedaba en sus manos. Pero tenía el control absoluto del proceso. "Querer innovar en un sistema como este es como someterte a un trasplante de corazón mientras corres una milla en cuatro minutos", dijo Jack Morton, el jefe de departamento de ingeniería electrónica. Era un control al que no estaban dispuesto a renunciar.

          El memorando que entregó Paul Baran al gobierno de EEUU en agosto de 1964 con el diagrama, la tecnología y el sistema de gestión por paquetes fue archivado y olvidado en un cajón. Por suerte, la idea era demasiado buena para que se le ocurriera a uno solo. Había al menos dos ingenieros trabajando en el problema para dos instituciones distintas en otros puntos del globo. El primero era Donald Davies en el Laboratorio Nacional de Física de Londres. El segundo, Leonard Kleinrock en el MIT.