jueves, 27 de junio de 2013

NÚMEROS CUÁNTICOS PARA CASINOS VIRTUALES

http://blogs.elpais.com/apuntes-cientificos-mit/2013/06/la-ciencia-es-m%C3%A1s-interesante-que-el-sexo-.html

     Lo que veis a vuestra derecha son dos células fotovoltaicas transparentes. Me las mostraron en el Instituto de Ciencias Fotónicas (ICFO) en Barcelona; un impresionante centro cuyo objetivo es comprender (ciencia) y aprovechar (tecnología) todos los aspectos relacionados con la luz que podáis imaginar. 
 
     De momento estas células fotovoltaicas transparentes resultan menos eficientes que las convencionales, y son todavía bastante costosas. Pero no dudéis ni un minuto que algún día dejarán de serlo, las tendréis recubriendo vuestro coche o filtrando luz de manera inteligente en las ventanas de los edificios, y la energía solar contribuirá a sustituir esta salvajada de ir quemando combustibles fósiles a discreción.

     De verdad; no sé decirte si esto ocurrirá en 10, 20 o 40 años. Pero ten por seguro que en un futuro no tan lejano explotaremos los recursos naturales de manera absolutamente sostenible, habremos erradicado la pobreza extrema, trabajaremos muchas menos horas (esto ya deberíamos empezar a pensarlo ya), y curaremos enfermedades que ahora generan enorme sufrimiento. Sucederá. No pierdas la perspectiva del avance científico, ni el impacto del cambio exponencial.

Nanopartículas para quemar cánceres

Icfo nanoparticle     Romain Quidant me habla de sus nanopartículas de oro que potencialmente podrían identificar células cancerígenas y quemarlas. 

     El proceso es conceptualmente sencillo: a nanopartículas inertes (de oro por ejemplo) se les añade un anticuerpo capaz de reconocer estructuras específicas de las membranas de células cancerígenas, de manera que al distribuirse por el organismo se enganchen sólo a ellas. Pero estas nanopartículas llevarán algo más: “algo” que reaccione y las caliente mucho cuando les llegue una luz (radiación) determinada.

     Resumiendo, el concepto es así de simple: se inyectan las nanopartículas al torrente sanguíneo, al cabo de un tiempo quedan enganchadas sólo a las células cancerígenas, y enviándoles radiación podremos hacer que se calienten hasta destruirlas. 

     Obvio que además de limitaciones técnicas habrá preocupación por su toxicidad, pero Quidant dice que no serán más tóxicas que la agresiva y contradictoriamente tan asumida quimioterapia. Y no es ciencia ficción; su grupo del ICFO ya ha diseñado nanopartículas, están trabajando con modelos animales y oncólogos de Barcelona, y explica que una experta de Texas ha empezado estudios clínicos con humanos. Comenta que la nanomedicina (enviar cosas a sitios del cuerpo para que realicen funciones específicas) está avanzando mucho, pero que no todo se publica en revistas científicas por los asuntos de propiedad intelectual y patentes que conlleva. 

La lenta Europa intenta recuperar terreno en el grafeno

     Algo parecido ocurre con el grafeno. El holandés Frank Koppens es uno de los grandes líderes del momento en este asombroso material que permite construir capas tremendamente resistentes (un elefante sobre una aguja de grafeno no la rompería), súper-conductoras, y al mismo tiempo ligerísimas y finísimas de sólo un átomo de grosor. Las propiedades de los materiales bidimensionales como el espectacular grafeno son únicas, y sus posibles aplicaciones en baterías, técnicas de imagen, salud, energía, estructuras ligeras y resistentes, detectores, pantallas, y todo tipo de aparatejos electrónicos, interminables. Es parte del futuro.

     La Comunidad Europea ha diseñado una hoja de ruta y dedicado 1000 millones de euros a su estudio, quizás por darse cuenta que a pesar de ser descubierto en Europa y empezado a desarrollar por investigadores europeos, en estos momentos en cuanto a patentes está muy por detrás de EEUU o Asia.

Icfo frank     “Asia and US have many more patents. Actually, it’s embarrassing” (vergonzante) dice Frank. “I think it’s a matter of mentality”, responde cuando le pregunto porqué Europa se quedó atrás.

     Científicos españoles tan reivindicativos de la investigación básica, tomad nota también de esto. Para generar verdadero valor en la ciencia debemos recorrer el camino completo, empezando evidentemente por el principio, pero avanzando hasta el final.

La bomba atómica desde dentro de Los Álamos

     Seguro que el grafeno tendrá aplicaciones militares también. No olvidemos que el presupuesto de investigación científica del departamento de defensa estadounidense (DARPA) es mayor que el de la NASA, el National Institutes of Health (NIH) y la National Science Foundation (NSF) juntos. 

Info glauber 2      De hecho mi visita al ICFO coincidió con una charla del premio Nobel de Física Roy Glauber, quien hace más de 60 años trabajó en Los Álamos en el proyecto Manhattan que generó la bomba atómica. Glauber explicó que unos años antes, físicos teóricos haciendo ciencia básica totalmente inocente habían descubierto que los átomos de Uranio desprendían bastante energía al fisionarse. Vieron luego que si se les bombardeaba con átomos de Bario lo hacían con mayor facilidad, y que curiosamente había un isótopo del Uranio (el U235) que era menos abundante pero podía fisionarse todavía más fácilmente con neutrones. Además, también descubrieron que al desintegrarse el propio U235 liberaba neutrones que –en caso de estar muy concentrado- podían empezar una peculiar reacción en cadena. Todo era muy interesante, se presentaba en conferencias científicas, salía en los medios… hasta que de repente dejó de hacerlo y pareció caer en el olvido. 

     El gobierno estadounidense reclutó científicos en absoluto secreto y construyó los laboratorios de Los Álamos que iban a explorar las posibilidades de esta tan energética y potencialmente destructiva reacción en cadena de fisión nuclear. 

     Glauber explicó que cuando le propusieron el trabajo no le explicaron dónde sería ni de qué trataría, que los jefes hablaban en código entre ellos, o que Niels Bohr utilizaba el nombre falso de Nicholas Baker. Sus comentarios sobre el ciclotrón desaparecido de Harvard, conferencias con títulos “The theory and practice of bombing”, y los relatos sobre las personalidades de Feymann, Teller, Fermi u Oppenheimer fueron historia viva de la ciencia. Fascinante.

  
Números cuánticos para casinos virtuales 

     Antonio Acín estudia información cuántica pero reconoce que los lejanos ordenadores cuánticos no son su primer interés. Él está metido de lleno en la criptografía cuántica, viendo nuevas maneras de codificar la información sin que ni los mejores hackers puedan interceptarla (algo que ya ocurrió con los primeros dispositivos comerciales).  

Icfo labonachip3      Antonio me habla también de sensibilidad y de detectar ondas gravitacionales gracias a fluctuaciones cuánticas, pero lo que me resulta más curioso es la utilización de cálculos cuánticos para crear números aleatorios. Pone como ejemplo que los programas informáticos de un casino virtual generan números aleatorios con complejísimos algoritmos que resultan prácticamente indetectables. Pero no es del todo imposible hackearlos. Al final se trata de un sistema clásico guiado por reglas complejas, pero establecidas. No son 100% aleatorios ni impredecibles. 

     En cambio si los números se generaran utilizando propiedades como la indeterminación cuántica, sí serían absolutamente aleatorios. Ya se está haciendo, y casinos, bancos, militares o empresas podrían tener gran interés en comprar paquetes de ellos. Vender números aleatorios, un negocio en alza ;).

Las bacterias utilizan la cuántica mejor que nosotros

Icfo fotosintesis      La visita termina con Niek van Hulst, quien acaba de publicar un Science explicando que las plantas y bacterias utilizan la coherencia cuántica para extraer energía solar. Lo que Niek ha descubierto tiene un punto rompedor: en coherencia cuántica un sistema formado por varios átomos se comporta como un único sistema cuántico. Eso se ha logrado en condiciones muy restringidas de laboratorio, pero se suponía que en la naturaleza estos sistemas no eran estables. Pues se ve que en ciertos complejos proteínicos involucrados en la fotosíntesis sí lo son, y además utilizan estas propiedades cuánticas para almacenar y transportar energía de manera más eficiente. Algo a estudiar e intentar imitar tecnológicamente, desde luego. La naturaleza demuestra que todavía nos lleva mucha ventaja. 

La ciencia es la gran apuesta

     Almorcé con Lluís Torner, el director y alma de este fabuloso instituto de ciencias fotónicas que nada tiene que envidiar a grandes centros de EEUU o Europa. Lluís explica que de momento a ellos no les está afectando tanto la crisis porque cuentan con mecenazgo y gran parte de su financiación proviene de fondos europeos. Pero a pesar de eso, se muestra preocupadísimo por la situación de la ciencia en España. Percibe que algunas pérdidas causadas por los recortes son irreparables. Esto no es como un edificio que puedes detener su construcción unos meses y retomarla desde el punto que la has dejado. 

     No lo dice Torner sino yo: un país que exporta inteligencia se vuelve menos inteligente. Sin eludir la autocrítica que el sistema de investigación español debería hacer y no hace (de puertas adentro bien que rajan de instituciones y modelos), observar las posibilidades que nos ofrece la ciencia y decidir quedarse al margen es lamentable. “No hay momento malo para hacer algo bueno”, decía el ladrón de cerebros. Ayer en su discurso presentando el plan de cambio climático Obama fue muy contundente: ¿sostenibilidad ambiental vs crecimiento económico? Esta dicotomía es falta y propia de personajillos cortoplacistas poco visionarios. Gracias a la ciencia y la tecnología podemos tener ambos. Si apostamos por ella, claro.

martes, 25 de junio de 2013

¿CUÁNTAS RAZONES TRIGONOMÉTRICAS "EXISTEN"?

http://gaussianos.com/cuantas-razones-trignonometricas-existen/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+gaussianos+%28Gaussianos%29

     Cualquiera que haya llegado al instituto y tenga algo de memoria de aquella época recuerda que una parte del temario de algunos cursos trataba sobre Trigonometría, cuyo significado es medición de triángulos y cuyo objetivo es estudiar las relaciones entre los lados de un triángulo y los ángulos formados por dichos lados, que son lo que se denominan razones trigonométricas.

     Las razones trigonométricas de los ángulos de un triángulo rectángulo eran esas relaciones entre los lados de dicho triángulo rectángulo que tenían nombres tan curiosos como seno, coseno, tangente… ¿Recordáis más? ¿Sabríais representarlas? Echad un ojo, quizás descubráis cosas que no conocíais.

     Comencemos con las más conocidas. Dado un triángulo rectángulo como el de la figura:

     Se define el seno del ángulo \theta como el cateto opuesto a \theta dividido entre la hipotenusa del triángulo. Es decir:

sen(\theta)=\cfrac{b}{c} 

     En este contexto, se define el coseno del ángulo \theta como el cateto contiguo a \theta dividido entre la hipotenusa del triángulo:

cos(\theta)=\cfrac{a}{c} 

     Y la tangente de \theta se define como el cociente entre el cateto opuesto a \theta dividido entre el cateto contiguo. O, lo que es lo mismo, el cociente entre el seno y el coseno de dicho ángulo:

tg(\theta)=\cfrac{b}{a}=\cfrac{sen(\theta)}{cos(\theta)}
     Bien, ya tenemos tres. Habitualmente todo esto se representa en una circunferencia de radio 1. Al ser este radio la hipotenusa del triángulo en cuestión, las expresiones de seno y coseno se simplifican, quedando de la siguiente forma:
     ¿Y la tangente cómo se representa? Pues así:

     Trazamos la tangente a la circunferencia en el punto B. Cortará al eje X en un punto, que llamamos E.
 Entonces, la tangente de \theta es la longitud del segmento BE.
 
     Quedaría tal que así:
     Éstas son las más conocidas, las que seguro que muchos recordáis. Pero había más, ¿verdad? Además con nombres muy parecidos a éstas. Sí, son sus recíprocas y son las siguientes:
  • Secante: sec(\theta)=\cfrac{1}{cos(\theta)}
  • Cosecante: cosec(\theta)=\cfrac{1}{sen(\theta)}
  • Cotangente: cotg(\theta)=\cfrac{1}{tg(\theta)}=\cfrac{cos(\theta)}{sen(\theta)}
     Evidentemente, éstas también tienen su representación. Podemos verlas en la siguiente imagen junto con las tres anteriores:
     Y ya no había más razones trigonométricas, ¿verdad? Al menos en el temario no aparecían más, pero eso de “haber” es muy relativo. ¿”Existen” más razones trigonométricas? Sí, “existen” más. Históricamente se han tenido en cuenta otras razones trigonométricas que por ciertas razones fueron importantes en su momento. Vamos a verlas:
  • Verseno: versen(\theta)=1-cos(\theta)
    Fue una de las razones trigonométricas más importantes (aparecía en algunas de las primeras tablas trigonométricas), pero fue perdiendo “nombre” poco a poco y ahora prácticamente no se usa. Existen varias razones trigonométricas relacionadas con el verseno que se enumeran a continuación.
  • Vercoseno: vercos(\theta)=1+cos(\theta)
  • Coverseno: coversen(\theta)=1-sen(\theta)
  • Covercoseno: covercos(\theta)=1+sen(\theta)
  • Semiverseno: semiversen(\theta)=\cfrac{versen(\theta)}{2}
         El semiverseno (haversin en inglés) era muy conocido y muy utilizado en navegación por formar parte de la fórmula del semiverseno para el cálculo de la distancia entre dos puntos de una esfera dada las longitudes y las latitudes de los mismos.
  • Semivercoseno: semivercos(\theta)=\cfrac{vercos(\theta)}{2}
  • Semicoverseno: semicoversen(\theta)=\cfrac{coversen(\theta)}{2}
  • Semicovercoseno: semicovercos(\theta)=\cfrac{covercos(\theta)}{2}
     Casi nada, ¿verdad? Seguro que para la gran mayoría de vosotros estas razones trigonométricas son totalmente nuevas, al igual que ocurrirá con las dos últimas que os voy a presentar:
  • Exsecante: exsec(\theta)=sec(\theta)-1
    La exsecante, aunque ya prácticamente no se usa, fue muy importante en agrimensura, astronomía y trigonometría esférica.
  • Excosecante: excosec(\theta)=cosec(\theta)-1
     Aquí os dejo una imagen con las seis que más se usan actualmente (las seis primeras que se han visto en esta entrada) junto con el verseno, el coverseno, la exsecante y la excosecante:
     Y para terminar una reflexión. Aunque en la actualidad se usan estas seis razones trigonométricas que hemos comentado al principio, y aunque en otras épocas históricas se han usado más (las que hemos presentado después), podríamos decir que en realidad hay solamente una razón trigonométrica “esencial”, y que todas las demás se definen a partir de ella. Por ejemplo, podríamos decir que la única razón trigonométrica “esencial” es el seno, ya que todas las demás pueden construirse a partir de ella. Pero posiblemente en muchas situaciones prácticas sea complicado trabajar con esas “variaciones” del seno y en realidad sea conveniente definir de antemano las demás razones trigonométricas para trabajar directamente con ellas. Como en muchas ocasiones, la cuestión dependerá de en qué estemos trabajando y de para qué vayamos a usar estas herramientas. Como es habitual, la versatilidad de las matemáticas está a nuestro servicio.

CÓMO CONSTRUIR TRÍANGULOS PITAGÓRICOS

 http://gaussianos.com/como-contruir-triangulos-pitagoricos/

     Ya vimos en este post sobre el último teorema de Fermat que para n mayor que 2 la ecuación x^n+y^n=z^n no tiene soluciones enteras positivas. Pero sabemos que para el caso n = 2 sí que las hay, de hecho hay infinitas. La proposición del libro Arithmetica de Diofanto que inspiró esta afirmación de Fermat fue precisamente esta, considerada como uno de los problemas más antiguos de las matemáticas.
Escribir un cuadrado como suma de dos cuadrados.
     Es decir, el problema que consiste en encontrar tres números enteros positivos x, y, z que cumplan que x^2+y^2=z^2. A cada terna de números enteros positivos que cumplan esta ecuación la llamaremos terna pitagórica. Por ejemplo, (3, 4, 5) es una terna pitagórica. Y todo triángulo que cumpla esta relación con sus tres lados números enteros positivos se denomina triángulo pitagórico.

     Mediante el teorema de Pitágoras a partir de dos números enteros positivos x, y podemos encontrar un tercer número z que cumpla esa ecuación simplemente despejando de ella. Pero nada ni nadie nos asegura que ese z sea también entero positivo. Podría ser racional o incluso irracional. En este post vamos a ver un método para encontrar todas las ternas pitagóricas, denominado método analítico, y la demostración del mismo.

Preliminares

 

     El método analítico comienza partiendo de una terna pitagórica (x, y, z). Si estos tres enteros positivos tuvieran algún factor común, digamos d, entonces la terna (x/d, y/d, z/d) también sería una terna pitagórica. Y si dos de ellos tuvieran un factor común entonces ese factor debería serlo también del tercero. Por tanto es suficiente con buscar las ternas pitagóricas que cumplan que sus elementos son primos relativos dos a dos, ya que las demás se formarán multiplicando todos sus elementos por cualquier número entero positivo.

     Por tanto no pueden ser los tres pares, ni siquiera dos de ellos. Y tampoco los tres impares, ya que tendríamos impar + impar = impar, lo cual es imposible. Por tanto debe haber dos impares y uno par. Es sencillo ver que z no puede ser el par, ya que con sencillos cálculos (ejercicio propuesto 1) llegaríamos a impar = par, que sabemos que es imposible. Entonces z debe ser impar, y entre los otros dos debe haber uno impar y otro par. Tomemos x par e y impar.

Desarrollo del método analítico

 

     Rescribimos la ecuación así: x^2=z^2-y^2. De aquí, usando el famoso producto notable diferencia de cuadrados igual a suma por diferencia llegamos a: x^2=(z+y)(z-y). Como los números x, z + y, z – y son todos pares se tiene que existen enteros positivos u, v, w tal que x = 2u, z + y = 2v, z – y = 2w. Entonces (2u)^2=(2v)(2w). Simplificando obtenemos u^2=v \cdot w. Además el máximo común divisor de v y w es 1, es decir, son primos relativos, ya que un divisor común de v y w también lo sería de y y z (ejercicio propuesto 2), lo cual es imposible porque éstos eran primos relativos.

     Tenemos entonces u^2=v \cdot w. Y aquí viene el paso clave de la demostración:
Si el producto de dos enteros positivos primos relativos v y w es igual a un cuadrado entonces tanto v como w son cuadrados (ejercicio propuesto 3).
     Por tanto existen enteros positivos p, q tal que v=p^2 y w=q^2. Además p y q son primos relativos al serlo v y w. Entonces:

z=v+w=p^2+q^2
y=v-w=p^2-q^2

     Esto nos dice que p > q, y que p y q son de paridad distinta (es decir, que uno es par y el otro impar), ya que y y z son impares. Usando ahora la primera expresión podemos expresar x fácilmente en términos de p y q:

x^2=z^2-y^2=p^4+2p^2q^2+q^4-p^4+2p^2q^2-q^4=4p^2q^2=(2pq)^2

     Es decir, x = 2pq.

     Lo que hemos obtenido es lo siguiente: dada una terna pitagórica primitiva (x, y, z), existen enteros positivos primos relativos p y q tal que p > q, p y q son de paridad distinta y la terna (2pq,p^2-q^2,p^2+q^2) es una terna pitagórica.

     Esto completa el análisis porque es sencillo mostrar que dado un par de enteros positivos p y q tal que p y q son primos relativos, p > q y p y q de distinta paridad, entonces la terna (2pq,p^2-q^2,p^2+q^2) forma una terna pitagórica primitiva (ejercicio propuesto 4).

Conclusión

 

     El método descrito y los resultados obtenidos resuelven completamente el problema de la construcción de ternas pitagóricas primitivas. Recapitulando:
     Cada terna pitagórica primitiva puede construirse a partir de dos números enteros positivos p y q primos relativos, de distinta paridad y con p > q de la siguiente forma:
(2pq,p^2-q^2,p^2+q^2) 
El resto de ternas pitagóricas se obtienen a partir de alguna de las primitivas multiplicando todos los elementos de la misma por un número.
     Las ternas pitagóricas primitivas que podemos obtener con p menor o igual que 6 son las siguientes:

p q
x y z
2 1
4 3 5
3 2
12 5 13
4 1
8 15 17
4 3
24 7 25
5 2
20 21 29
5 4
40 9 41
6 1
12 35 37
6 5
60 11 61

LA HUELLA EUROPEA EN EL DESARROLLO DE LAS PRIMERAS MÁQUINAS DE CALCULAR Y COMPUTADORES

http://blogs.elpais.com/turing/2013/04/la-huella-europea-en-el-desarrollo-de-las-primeras-maquinas-de-calcular-y-computadores.html

De Blaise Pascal a Maurice Wilkes

ALBERTO PRIETO ESPINOSA

     En la conmemoración del centenario del nacimiento de Alan Turing, muy merecidamente se han destacado las dotes de este extraordinario personaje. Me mueve a escribir estas líneas pensar que muchas personas erróneamente crean que la contribución europea al desarrollo de las primeras máquinas de calcular y computadores se circunscribe al loable trabajo de Turing; cuando ha habido otros pioneros, algunos coetáneos a él, que también destacaron por su inteligencia e imaginación en este campo. Voy a referirme básicamente a aspectos de ingeniería, a máquinas en sí, no a aspectos teóricos.

     La historia reconoce que las primeras máquinas de calcular, basadas fundamentalmente en ruedas dentadas y engranajes, fueron desarrolladas en Europa, destacando las siguientes contribuciones:
  • Blaise Pascal (1624) ideó y construyó la primera calculadora mecánica para sumar y restar (Pascalina). La desarrolló para ayudar a su padre que era recaudador de impuestos de la alta Normandia, nombrado por el cardenal Richelieu.
  • Gottfried W. Leibnitz (Leipzig) en 1671 concluyó una máquina
    que, Aritmómetromediante el uso de cilindros escalonados, incluía por primera vez el producto y la división.
  • Charles Xavier Thomas de Colmar (Francia) patentó 
    el 18 de noviembre de 1820 el Aritmómetro, que fue la primera calculadora de sobremesa capaz de realizar las cuatro operaciones básicas de forma sencilla y sin errores con resultados de hasta 12 cifras.
      Mención aparte merece Charles Babbage que ideó en 1837 su Máquina Analítica, e introdujo conceptos fundamentales como:
  • Máquina AnalíticaLa definición de una estructura funcional para las máquinas de calcular: almacén (lo que hoy denominamos “memoria”), taller (en la actualidad “unidad aritmético-lógica”), y unidades de entrada y salida.
  • La noción de programabilidad de la máquina, por medio del
    encadenamiento automático de secuencias por medios
    mecánicos.
Brunsviga     En 1982 la empresa alemana GNC (Grimme, Natalis & Co.) diseña la calculadora mecánica de sobremesa “dupla” Brunsviga, siendo de las más utilizadas en el mundo desde 1885 hasta la década de los 1950. En 1955 la empresa ocupaba a más de mil personas y hasta 1957 se fabricaron más de 500.000 de esas máquinas en varios modelos. 

 El Ajedrecista     Dentro de los sistemas mecánicos de cálculo que se concibieron en aquella época conviene hacer referencia a la contribución del español Leonardo Torres Quevedo (1852-1936). En la línea de Babbage trabajó en la construcción de máquinas automáticas de cálculo analógico, siendo celebre su estudio sobre “máquinas algebraicas” que presentó en las academias de ciencias española (1893) y francesa (1900). En la Feria Mundial de Paris de 1914 presentó una máquina (El Ajedrecista) que jugaba automáticamente un final de rey y torre contra el rey de un oponente humano.  Siempre ganaba, pero no en un número mínimo de movimientos. El 6 de noviembre de 1915 en la revista Scientific American se citaba a este trabajo como "Torres and His Remarkable Automatic Device“.

     Sin lugar a dudas dos de los europeos que más contribuyeron en el desarrollo de los primeros computadores fueron el alemán Konrad Zuse (1910-1995) y el inglés Maurice Wilkes (1913-2010). Zuse trabajó en la  Ford Motor Company y en la Henschel Aircraft Factory ubicadas en Berlin-Schönefeld. Su trabajo requería realizar muchos operaciones matemáticas a mano, lo que le llevó a proyectar sistemas automáticos de cálculo. Así, en  mayo de 1941 concluyó el Z3 que es considerado como el primer computador controlado por programa en funcionamiento. Este computador estaba proyectado para realizar cálculos aeronáuticos y no era de uso general, y utilizaba en su construcción relés de telefonía. Otro hecho notable es que era entre Konrad Zuse4 y 5 veces más rápido que el computador Mark I, concluido 3 años más tarde por  Howard T. Aiken en la Universidad de Harvard  con la colaboración de IBM. De 1943 a 1945 definió un lenguaje de programación de alto nivel que denominó Plankalkül  (“Plan de Cálculo”). Posteriormente construyó el Z4 que se convirtió en 1950 en el primer computador comercializado del mundo (un año antes que el UNIVAC I en Estados Unidos).

     Desde un  punto de vista conceptual, la contribución de Sir Maurice Wilkes (Universidad de Cambridge) a la   arquitectura de computadores fue fundamental. En el verano de 1946  Wilkes asiste a un curso de verano sobre computadores electrónicos  impartido por Mauchly y Eckert en la Moore School (Filadelfia). Estos investigadores acababan de concluir el ENIAC, que puede considerarse como el primer computador electrónico del mundo. Durante esta estancia cae en sus manos el documento First Draft of a Report on the EDVAC donde John von Neuman proponía la idea de introducir los programas en una memoria como si fuesen datos y junto a estos (programa almacenable en memoria). Literalmente en una noche “devora” este documento (no había por entonces fotocopiadoras) que tenía que devolver con premura.

      A su vuelta a Cambridge concibe el EDSAC que construye en tres años y, se adelanta al EDVAC, ya que ejecuta su primer programa el 6 de mayo de 1949. El EDSAC es considerado el primer computador operativo de programa almacenado. Algunas aplicaciones del EDSAC fueron:
  • 1950, resolución de ecuaciones diferenciales que modelan la frecuencia de generación de genes (primer uso del computador para resolver un problema en el campo de la biología)
  • EDSAC1951, obtención de un número primo de 79 dígitos.
  • 1952, desarrollo del primer videojuego del mundo: el tres en raya (OXO). La salida gráfica se obtiene en una pantalla de un osciloscopio (CRT).
  • 1960, recopilación de una serie de evidencias numéricas sobre las soluciones de las ecuaciones elípticas.
     En 1951 Wilkes publica con David J. Wheeler y Stanley Gill el primer libro del mundo sobre programación de computadores “The preparation of programs for an electronic digital computer”. Personalmente opino que la contribución más notable a la arquitectura de computadores de Wilkes, que tuvo también lugar en 1951, fue el concepto de unidad de control microprogramada. Supuso una alternativa para el diseño de los computadores, y que para poner de manifiesto su ingenio paso a describir a continuación.

     Una unidad de control tradicional o “cableada” (“hard-wired”) de un computador está constituida por componentes electrónicos interconectados (mediante cables o conductores) que generan las señales eléctricas de control para monitorizar el funcionamiento de los distintos elementos del sistema. Obviamente, un modelo de computador distinto a otro requiere de una unidad de control distinta con diferentes circuitos e interconexiones. La ejecución de una instrucción lleva consigo la generación por la unidad de control de una serie precisa y ordenada en el tiempo de señales de control binarias. Pues bien, la genial idea de Wilkes consiste en sustituir la unidad de control cableada por una memoria especializada (de control) que tenga almacenados los valores de las señales de control. El conjunto de valores de las señales de control correspondientes a la ejecución de una instrucción se denomina “microprograma”, diciéndose por ello que  estas unidades de control son microprogramadas.

      Una unidad de control microprogramada es como si hubiese un computador de control dentro del  computador. Podemos pasar de un computador a otro sin más que cambiar los microprogramas almacenados en su memoria de control. Las ventajas que se obtienen son: facilidad de diseñar e implementar nuevos procesadores, posibilidad de que con una misma estructura hardware  se puedan emular distintas arquitecturas, facilidad de migración dentro de una serie de computadores, y computación reconfigurable. Hablando con rigor, cuando decimos que una persona debe de “cambiar el chip” deberíamos decir “debe de cambiar los microprogramas”, lo cual sería  mucho más sencillo de realizar.

     El concepto de unidad de control microprogramada, ha sido ampliamente adoptado por la industria desde sus orígenes hasta la actualidad. Una gran parte de los procesadores de uso general actuales lo utilizan, así como sistemas más especializados como es el caso del co-procesador Reality de la Nintendo 64 o las unidades vectoriales VU0 and VU1 de la Sony PlayStation 2.

Maurice Wilkes      Me gustaría no concluir estas líneas sin relacionar la vida de Maurice Wilkes con la de Alan Turing. Los dos fueron coetáneos, es más, estudiaron un grado en matemáticas en la misma clase en la Universidad de Cambridge obteniendo exactamente las mismas calificaciones. Como confesó el propio Wilkes, posteriormente sus encuentros fueron ocasionales, eran plenamente cordiales aunque encontraba a Alan reservado en sus maneras, existiendo cierta rivalidad entre ellos. Turing fue un pionero de la computación teórica describiendo un computador sobre el papel, mientras que Wilkes construyó el primer computador operativo de programa almacenado del mundo y desarrolló conceptos de arquitectura y métodos de programación que aún hoy día se siguen utilizando. Otro contraste notable entre ellos: mientras Alan Turing vivió sólo 42 años (1954), Wilkes murió con 97 (2010). Curiosamente Maurice recibió el premio Alan Turing (considerado el Nobel de la Informática), en su segunda edición (1967).

     En mi modesta opinión, el desarrollo de los computadores se ha producido, en gran medida, por la conjunción de: 1) la inventiva europea, 2) los medios y recursos de los Estados Unidos y 3) el poder de “asimilación y reproducción” asiático.

La Academia de Ciencias Matemáticas, Físico-Químicas y Naturales de Granada, en el centenario del nacimiento de Alan Turig organiza el ciclo de conferencias De Alan Turing a nuevos retos científicos europeos en procesamiento de la información, en la ciudad de Granada durante el mes de mayo. Más información puede encontrarse aquí.

Alberto Prieto Espinosa es catedrático de la Universidad de Granada.