martes, 25 de junio de 2013

LA HUELLA EUROPEA EN EL DESARROLLO DE LAS PRIMERAS MÁQUINAS DE CALCULAR Y COMPUTADORES

http://blogs.elpais.com/turing/2013/04/la-huella-europea-en-el-desarrollo-de-las-primeras-maquinas-de-calcular-y-computadores.html

De Blaise Pascal a Maurice Wilkes

ALBERTO PRIETO ESPINOSA

     En la conmemoración del centenario del nacimiento de Alan Turing, muy merecidamente se han destacado las dotes de este extraordinario personaje. Me mueve a escribir estas líneas pensar que muchas personas erróneamente crean que la contribución europea al desarrollo de las primeras máquinas de calcular y computadores se circunscribe al loable trabajo de Turing; cuando ha habido otros pioneros, algunos coetáneos a él, que también destacaron por su inteligencia e imaginación en este campo. Voy a referirme básicamente a aspectos de ingeniería, a máquinas en sí, no a aspectos teóricos.

     La historia reconoce que las primeras máquinas de calcular, basadas fundamentalmente en ruedas dentadas y engranajes, fueron desarrolladas en Europa, destacando las siguientes contribuciones:
  • Blaise Pascal (1624) ideó y construyó la primera calculadora mecánica para sumar y restar (Pascalina). La desarrolló para ayudar a su padre que era recaudador de impuestos de la alta Normandia, nombrado por el cardenal Richelieu.
  • Gottfried W. Leibnitz (Leipzig) en 1671 concluyó una máquina
    que, Aritmómetromediante el uso de cilindros escalonados, incluía por primera vez el producto y la división.
  • Charles Xavier Thomas de Colmar (Francia) patentó 
    el 18 de noviembre de 1820 el Aritmómetro, que fue la primera calculadora de sobremesa capaz de realizar las cuatro operaciones básicas de forma sencilla y sin errores con resultados de hasta 12 cifras.
      Mención aparte merece Charles Babbage que ideó en 1837 su Máquina Analítica, e introdujo conceptos fundamentales como:
  • Máquina AnalíticaLa definición de una estructura funcional para las máquinas de calcular: almacén (lo que hoy denominamos “memoria”), taller (en la actualidad “unidad aritmético-lógica”), y unidades de entrada y salida.
  • La noción de programabilidad de la máquina, por medio del
    encadenamiento automático de secuencias por medios
    mecánicos.
Brunsviga     En 1982 la empresa alemana GNC (Grimme, Natalis & Co.) diseña la calculadora mecánica de sobremesa “dupla” Brunsviga, siendo de las más utilizadas en el mundo desde 1885 hasta la década de los 1950. En 1955 la empresa ocupaba a más de mil personas y hasta 1957 se fabricaron más de 500.000 de esas máquinas en varios modelos. 

 El Ajedrecista     Dentro de los sistemas mecánicos de cálculo que se concibieron en aquella época conviene hacer referencia a la contribución del español Leonardo Torres Quevedo (1852-1936). En la línea de Babbage trabajó en la construcción de máquinas automáticas de cálculo analógico, siendo celebre su estudio sobre “máquinas algebraicas” que presentó en las academias de ciencias española (1893) y francesa (1900). En la Feria Mundial de Paris de 1914 presentó una máquina (El Ajedrecista) que jugaba automáticamente un final de rey y torre contra el rey de un oponente humano.  Siempre ganaba, pero no en un número mínimo de movimientos. El 6 de noviembre de 1915 en la revista Scientific American se citaba a este trabajo como "Torres and His Remarkable Automatic Device“.

     Sin lugar a dudas dos de los europeos que más contribuyeron en el desarrollo de los primeros computadores fueron el alemán Konrad Zuse (1910-1995) y el inglés Maurice Wilkes (1913-2010). Zuse trabajó en la  Ford Motor Company y en la Henschel Aircraft Factory ubicadas en Berlin-Schönefeld. Su trabajo requería realizar muchos operaciones matemáticas a mano, lo que le llevó a proyectar sistemas automáticos de cálculo. Así, en  mayo de 1941 concluyó el Z3 que es considerado como el primer computador controlado por programa en funcionamiento. Este computador estaba proyectado para realizar cálculos aeronáuticos y no era de uso general, y utilizaba en su construcción relés de telefonía. Otro hecho notable es que era entre Konrad Zuse4 y 5 veces más rápido que el computador Mark I, concluido 3 años más tarde por  Howard T. Aiken en la Universidad de Harvard  con la colaboración de IBM. De 1943 a 1945 definió un lenguaje de programación de alto nivel que denominó Plankalkül  (“Plan de Cálculo”). Posteriormente construyó el Z4 que se convirtió en 1950 en el primer computador comercializado del mundo (un año antes que el UNIVAC I en Estados Unidos).

     Desde un  punto de vista conceptual, la contribución de Sir Maurice Wilkes (Universidad de Cambridge) a la   arquitectura de computadores fue fundamental. En el verano de 1946  Wilkes asiste a un curso de verano sobre computadores electrónicos  impartido por Mauchly y Eckert en la Moore School (Filadelfia). Estos investigadores acababan de concluir el ENIAC, que puede considerarse como el primer computador electrónico del mundo. Durante esta estancia cae en sus manos el documento First Draft of a Report on the EDVAC donde John von Neuman proponía la idea de introducir los programas en una memoria como si fuesen datos y junto a estos (programa almacenable en memoria). Literalmente en una noche “devora” este documento (no había por entonces fotocopiadoras) que tenía que devolver con premura.

      A su vuelta a Cambridge concibe el EDSAC que construye en tres años y, se adelanta al EDVAC, ya que ejecuta su primer programa el 6 de mayo de 1949. El EDSAC es considerado el primer computador operativo de programa almacenado. Algunas aplicaciones del EDSAC fueron:
  • 1950, resolución de ecuaciones diferenciales que modelan la frecuencia de generación de genes (primer uso del computador para resolver un problema en el campo de la biología)
  • EDSAC1951, obtención de un número primo de 79 dígitos.
  • 1952, desarrollo del primer videojuego del mundo: el tres en raya (OXO). La salida gráfica se obtiene en una pantalla de un osciloscopio (CRT).
  • 1960, recopilación de una serie de evidencias numéricas sobre las soluciones de las ecuaciones elípticas.
     En 1951 Wilkes publica con David J. Wheeler y Stanley Gill el primer libro del mundo sobre programación de computadores “The preparation of programs for an electronic digital computer”. Personalmente opino que la contribución más notable a la arquitectura de computadores de Wilkes, que tuvo también lugar en 1951, fue el concepto de unidad de control microprogramada. Supuso una alternativa para el diseño de los computadores, y que para poner de manifiesto su ingenio paso a describir a continuación.

     Una unidad de control tradicional o “cableada” (“hard-wired”) de un computador está constituida por componentes electrónicos interconectados (mediante cables o conductores) que generan las señales eléctricas de control para monitorizar el funcionamiento de los distintos elementos del sistema. Obviamente, un modelo de computador distinto a otro requiere de una unidad de control distinta con diferentes circuitos e interconexiones. La ejecución de una instrucción lleva consigo la generación por la unidad de control de una serie precisa y ordenada en el tiempo de señales de control binarias. Pues bien, la genial idea de Wilkes consiste en sustituir la unidad de control cableada por una memoria especializada (de control) que tenga almacenados los valores de las señales de control. El conjunto de valores de las señales de control correspondientes a la ejecución de una instrucción se denomina “microprograma”, diciéndose por ello que  estas unidades de control son microprogramadas.

      Una unidad de control microprogramada es como si hubiese un computador de control dentro del  computador. Podemos pasar de un computador a otro sin más que cambiar los microprogramas almacenados en su memoria de control. Las ventajas que se obtienen son: facilidad de diseñar e implementar nuevos procesadores, posibilidad de que con una misma estructura hardware  se puedan emular distintas arquitecturas, facilidad de migración dentro de una serie de computadores, y computación reconfigurable. Hablando con rigor, cuando decimos que una persona debe de “cambiar el chip” deberíamos decir “debe de cambiar los microprogramas”, lo cual sería  mucho más sencillo de realizar.

     El concepto de unidad de control microprogramada, ha sido ampliamente adoptado por la industria desde sus orígenes hasta la actualidad. Una gran parte de los procesadores de uso general actuales lo utilizan, así como sistemas más especializados como es el caso del co-procesador Reality de la Nintendo 64 o las unidades vectoriales VU0 and VU1 de la Sony PlayStation 2.

Maurice Wilkes      Me gustaría no concluir estas líneas sin relacionar la vida de Maurice Wilkes con la de Alan Turing. Los dos fueron coetáneos, es más, estudiaron un grado en matemáticas en la misma clase en la Universidad de Cambridge obteniendo exactamente las mismas calificaciones. Como confesó el propio Wilkes, posteriormente sus encuentros fueron ocasionales, eran plenamente cordiales aunque encontraba a Alan reservado en sus maneras, existiendo cierta rivalidad entre ellos. Turing fue un pionero de la computación teórica describiendo un computador sobre el papel, mientras que Wilkes construyó el primer computador operativo de programa almacenado del mundo y desarrolló conceptos de arquitectura y métodos de programación que aún hoy día se siguen utilizando. Otro contraste notable entre ellos: mientras Alan Turing vivió sólo 42 años (1954), Wilkes murió con 97 (2010). Curiosamente Maurice recibió el premio Alan Turing (considerado el Nobel de la Informática), en su segunda edición (1967).

     En mi modesta opinión, el desarrollo de los computadores se ha producido, en gran medida, por la conjunción de: 1) la inventiva europea, 2) los medios y recursos de los Estados Unidos y 3) el poder de “asimilación y reproducción” asiático.

La Academia de Ciencias Matemáticas, Físico-Químicas y Naturales de Granada, en el centenario del nacimiento de Alan Turig organiza el ciclo de conferencias De Alan Turing a nuevos retos científicos europeos en procesamiento de la información, en la ciudad de Granada durante el mes de mayo. Más información puede encontrarse aquí.

Alberto Prieto Espinosa es catedrático de la Universidad de Granada.

viernes, 10 de mayo de 2013

UNA BELLEZA MATEMÁTICA

http://blogs.elpais.com/ayuda-al-estudiante/2013/04/una-belleza-matematica.html

http://blogs.elpais.com/.a/6a00d8341bfb1653ef017c38951161970b-pi

     Las matemáticas no son una asignatura como las demás. Sería muy cómodo decir que todas son iguales en importancia, pero creo que, como algunos animales de Rebelión en la granja, de George Orwell, algunas asignaturas son más iguales que otras. Y las matemáticas son mucho más iguales que otras.

     Eso no evita la melancólica sospecha de que su utilidad no deja ver a muchos estudiantes ni su belleza ni su increíble valor intelectual. Por si fuera poco, el notable problema que tenemos con la manera de enseñarlas explica en parte el hecho de que tantas personas se alejen emocionalmente de ellas para siempre, con la excusa de que es una materia demasiado complicada, áspera y casi inhumana. En este caso, me parece más preocupante la distancia emocional que las lógicas dificultades intelectuales. Creo que eso causa a los desertores un gran perjuicio personal, del que solo son conscientes cuando maduran. Pero, además, ya ha degenerado en un problema social de gran envergadura, por la creciente falta de competencia matemática en el mundo profesional (evitemos por un momento acordarnos del diabólico papel de los matemáticos en Wall Street). Lo cierto es que ahora tenemos un déficit de matemáticos tan importante al menos como el de afición social a las matemáticas.

     Dejando al margen a los profesores en concreto, y sin intención de minusvalorar a nadie, considero que, en términos generales, hay materias esenciales por su carácter instrumental, asignaturas que se necesita dominar por sí mismas y porque son absolutamente básicas para el resto de las materias y para la vida en general. Sin uno falla en ellas, ve automáticamente disminuida su capacidad para desenvolverse en todo lo demás, porque, en cierto sentido, son el alfabeto del conocimiento. La lista corta está formada por Lengua (y Literatura), Matemáticas y, en estos tiempos, el idioma Inglés.

     Hay otras materias muy importantes y destacadas en el programa académico: la Historia, la Física, la Biología, la Geografía, la Química o, crecientemente en estos tiempos, la Economía (en sentido amplio). Pienso que deberíamos incluir la Filosofía, pero me temo que hemos pillado a las autoridades educativas mirando para otra parte. Podríamos decir que, sin estas materias, uno acabaría viendo el mundo como algo indescifrable. Y no solo: en la vida adulta, mostrar grandes carencias en Historia o en Geografía llega a degradar nuestro prestigio personal.

     Y luego hay también materias normales, e incluso marías, que merecen todo nuestro respeto y pueden ser importantes para unos o para otros, pero que, hablando en términos generales, están en otro estatus de relevancia, por lo que se impone la necesidad de establecer prioridades.

     Entre las prioridades de primerísimo nivel, brillan con una extraordinaria luz propia las cuatro matemáticas. ¿Las cuatro? ¿Qué cuatro?

     Permitidme hablar con cierta soltura de cuatro matemáticas para referirme a los diversos ámbitos de la materia según su nivel de profundidad. Podríamos caracterizarlas así:

          1. La que se enseña en colegios e institutos, cuyo nivel de abstracción no es excesivo, aunque a algunos jóvenes los encuentra en una etapa evolutiva en la que ocasionalmente llega a exceder su capacidad de razonamiento lógico y abstracto. A ello se suma el hecho de que, en general, la habilidad y, a veces, el mero empeño didáctico del profesorado no es precisamente memorable, como si consideraran que cualquier teorema es autoexplicativo. En cualquier caso, el destinatario de esa matemática suele considerarla exigente y que no le permite dejarse llevar.

          2. La que se enseña en las universidades, bastante más compleja y abstracta. Requiere un buena predisposición, un notable nivel de formación específica y cierto talento matemático. Vista desde lejos, a veces parece alejarse del planeta Tierra. Gran parte de ella se utiliza para las otras disciplinas científicas. Es una matemática refinada, pero de aula y de aplicación científica y técnica.

       3. La alta matemática es la que se está creando mientras estás leyendo esto en los centros de investigación, la que producen los matemáticos de nivel estratosférico. Es prácticamente invisible desde lejos (y casi desde cerca). No es matemática de aula ni de alumnos, sino de grandes mentes. Su nivel de abstracción es tal, que frecuentemente el matemático de un despacho no consigue entender lo que hace el de la puerta de enfrente. Es una matemática extraplanetaria que tarda algún tiempo en aterrizar y en ser usada, primero por los matemáticos, luego por otros científicos y más adelante quizá por algunos mortales. Los afortunados que habitan en ese mundo la consideran a menudo de una belleza indescriptible que nada tiene que envidiar a una sinfonía de Beethoven. Seguramente es verdad, pero no está a nuestro alcance, ni tampoco al de los profesores de matemáticas, ni siquiera de muchos profesores de universidad. Podemos aplicarle la famosa sentencia diabólica, tan descriptiva: «No la entenderías si te la explicaran bien. Si la has entendido, te la han explicado mal».

          4. Forzando las cosas, podríamos hablar de una cuarta, la matemática de diario, la que utilizamos cuando compramos en las rebajas, comparamos en el supermercado los precios por kilogramo de productos de distinta marca y diferente peso, o calculamos el 25% del 40% de una cantidad. Esa se desprende de la matemática escolar. Es importantísima, y, como la cultura en sí, viene a ser “lo que recordamos cuando hemos olvidado lo aprendido” (vale decir "lo que sobrevive a las pérdidas de memoria"): agilidad en las sumas, restas, multiplicaciones, divisiones, potencias bajas, fracciones básicas, ecuaciones elementales, porcentajes, reglas de tres y diversas nociones algebraicas y geométricas. No demasiado, pero de una necesidad absoluta.
http://blogs.elpais.com/.a/6a00d8341bfb1653ef017d42c4241f970c-pi 

     Cuál es el problema? Que muchos de nuestros hijos abordan la matemática escolar tan asustados como si se tratara de la alta matemática. Sucede porque al primer esfuerzo de abstracción, casi en la primera fórmula con x e y, dan por descontado que es una simbología exclusiva para especialistas. Ante todo lo que no sea un número natural (y bajito) reaccionan alejándose, en lugar de intentar abrir la puerta. Luego racionalizan su situación diciendo que no están hechos para las matemáticas, con lo cual firman un divorcio de por vida. Y sus profesores no hacen demasiado por evitarlo. He conocido demasiados casos: todos aseguran que sus profesores no se las enseñaron bien. Es más, no hicieron el esfuerzo.

     ¿Cuál es mi consejo? No darse por vencido a la primera. Ni a la segunda. No minusvalorarse. Los conceptos matemáticos que se ven en clase están al alcance de cualquiera con la única condición de que se esfuerce. Eso sí, es una carrera que requiere entrenamiento (ejercicios) y un tirón considerable en los primeros metros. Pero una vez que avanzamos, la lógica interna y su entramado racional nos llevan casi en volandas. En otras palabras, la matemática escolar es un edificio en el que quizá cueste entrar, pero en el que no es tan difícil orientarse una vez dentro.

     El nivel de abstracción, aunque en el aula no es excesivo, hace que algunos alumnos crean intuitivamente que basta memorizar sin comprender. Es un tremendo error. La solución es exactamente la contraria. Las matemáticas son una materia de mucho razonamiento y muchísimos ejercicios, pero no demasiada memorización. Si el estudiante memoriza mucho a palo seco y hace muy pocos ejercicios, va exactamente por el camino equivocado, porque no hay matemáticas escolar sin lápiz y papel.

     Uno de nuestros principales problemas es el mediocre nivel didáctico general que tiene su enseñanza. No es que los profesores sean pedagógicamente limitados, o no más que el resto, pero a muchos les cuesta asumir que lo importante es cómo el alumno llega a comprender esas ideas tan refinadamente formalizadas. Se echa de menos un mayor esfuerzo por adaptarse en las explicaciones, pero también por hacer de la materia algo atractivo, personalizándola con biografías y trabajos sobre grandes matemáticos, proyectándola hacia la vida real con ejemplos y con historias. No basta duplicar una explicación para que cumpla su objetivo.


http://blogs.elpais.com/.a/6a00d8341bfb1653ef017eea385d89970d-pi 

     Uno de los principales valores educativos de las matemáticas se deriva del hecho de que se trata una disciplina de radical obediencia a las leyes de la lógica. Eso quiere decir que constituyen un entrenamiento para pensar de forma lógica y racional que muy pocas disciplinas ofrecen. ¿Se puede objetar que no todo en la vida es lógica? Cierto, pero no es ninguna objeción, porque eso no quita trascendencia al razonamiento lógico en la construcción del conocimiento.

     Además, las matemáticas forman parte del lenguaje esencial de la ciencia en sus diversas disciplinas. Mejor sería decir que, en cierto sentido, son el lenguaje del universo. Todos sabemos que no habría física sin matemáticas (hasta el punto de que, en ocasiones, las matemáticas casi parecen el único sustento intelectual de la realidad física). Así que, si nuestros hijos quieren estudiar una carrera científica, tendrán que dominar al menos tres idiomas: el matemático, el propio y el inglés. O, pasando a otras materias que se proclaman científicas (y ya quisieran...), ¿qué sería la economía sin matemáticas? Por no hablar de la infinidad de cosas que hacemos o tenemos y que serían una quimera sin matemáticas: pensemos en los ordenadores, los instrumentales de los quirófanos, las previsiones atmosféricas, los trenes y los aviones, los hornos de nuestras cocinas, los teléfonos móviles o las tarjetas de crédito.

     Pero con las matemáticas lo peor no pasa en el aula. Lo peor es que gran parte de la sociedad ha decidido que las matemáticas no son cultura, con lo que se ha ido extendiendo la idea de que es posible ser culto teniendo carencias básicas en matemáticas.

      Y ese es un error que acabamos pagando cada uno de nosotros. Porque las matemáticas son demasiado importantes para dejarlas exclusivamente en manos de los matemáticos. Son, o deberían ser, uno de nuestros patrimonios culturales más excelsos.

sábado, 4 de mayo de 2013

¿QUÉ VALOR TIENEN LOS E-MAILS EN UN JUICIO?

La Opinión del Experto. PC Actual. Pedro López, Martínandino Abogados


Hablamos del cada vez más enrevesado caso Nóos, de Urdangarín y de los centenares de correos electrónicos que ha aportado ante el juez su ex socio, Diego Torres. ¿Qué valor tienen realmente estos correos? ¿Cómo deberían aportarse en un juicio para ser admitidos como prueba? ¿Se puede saber si son auténticos? Se trata de cuestiones que conviene aclarar, ya que muchos de nosotros podemos tener estas dudas ante la necesidad de hacer valer el contenido de un correo electrónico en un hipotético juicio. Si, por ejemplo, nos limitamos a imprimir varios e-mails desde nuestro ordenador y aportamos las copias impresas como prueba, el juez los tendrá en cuenta como prueba documental, valorándolos libremente de acuerdo con la convicción que el propio juez se haya formado acerca de su valor y apreciándolos de manera conjunta con el resto de las pruebas.
http://bosshi.com/wp-content/uploads/2010/04/Email-Logo.gif
Los mensajes de correo pueden ser manipulados.
Casi con total seguridad, la parte contraria se opondrá, manifestando que esos correos electrónicos son inventados o están manipulados. Por este motivo, es más que recomendable que el e-mail que se aporte vaya respaldado por un soporte electrónico, así como por un informe pericial realizado por un experto informático. El correo electrónico se basa en el estándar RFC822 y toda la información relativa a la fecha, hora, remitente, destinatario, ruta seguida por el correo en la transmisión, así como su contenido, se encuentra contenida en la cabecera del correo. Su certificación por un perito informático servirá para determinar si hay coherencia o no en la información y descartar la manipulación.

martes, 23 de abril de 2013

GRACE MURRAY HOPPER, MUCHO MÁS QUE LA MAMÁ DEL COBOL


http://gaussianos.com/grace-murray-hooper-mucho-mas-que-la-mama-del-cobol/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+gaussianos+%28Gaussianos%29

     Hace poco menos de un mes aparecía en Microsiervos una entrada en la que se hablaba del superordenador Grace Hopper y el satélite Planck. Sin entrar en el contenido de dicha nota (haced click en el enlace si estáis interesados), la pregunta que se harán los más curiosos es bastante evidente: ¿quién es Grace Hooper?

      El año 1992, año de Juegos Olímpicos y Expo en España, no comenzaba bien para la familia Hopper. El 1 de enero fallecía Grace Murray Hooper a la edad de 85 años. El primer día de este año 1992 terminaba así la vida de una de las mujeres matemáticas e informáticas más importantes de la historia. Hace poco más de 21 años moría una de las personas más influyentes del siglo XX en lo que a matemáticas e informática se refiere.


Grace Murray Hopper




     Grace Murray Hopper nació en Nueva York el 9 de diciembre de 1906 en el seno de una familia en la que los estudios se consideraban como algo fundamental para el desarrollo de la personal, y en la que se consideraba que los varones y las mujeres debían tener las mismas oportunidades. Esto, unido a las cualidades para las ciencias en general, y las matemáticas en particular, que mostró Grace desde pequeña, hicieron que pudiera estudiar hasta la universidad. La secundaria la estudió en el Vassar College, en el que se graduó en matemáticas y física, y más adelante se doctoró en matemáticas en la Universidad de Yale (primera mujer que lo conseguía). Su tesis se tituló New Types of Irreducibility Criteria y la realizó bajo la supervisión del matemático noruego Øystein Ore.

     A pesar de todo esto, y de que estuvo ejerciendo un tiempo como profesora, la vida de Grace Hopper iba a seguir un camino en principio muy distinto al que marcaban sus estudios. Quizás inspirada en su bisabuelo, que fue militar (Alexander Russell, Almirante de la Armada de Estados Unidos), Grace entró en la Marina de los Estados Unidos (no sin dificultades, ya que no daba, y por una cantidad considerable, con el peso mínimo), llegando a ser la número uno de su promoción y saliendo con el grado de teniente junior.

     Como no podía ser de otra forma, Hopper pasó a tener una ocupación acorde a su formación.

     Concretamente pasó a estar bajo las órdenes del matemático Howard Aiken, principal desarollador del computador Mark I. Y no tuvo mal debut nuestra protagonista, recibiendo por parte de Aiken su primer encargo nada más llegar en estos términos:



     ¿Dónde demonios estabas? ¡Calcula los coeficientes de estas series de la arcotangente para el próximo jueves!

     A pesar de este “extraño” comienzo, la relación laboral entre Aiken y Hopper fue bastante fructífera, llegando a escribir varios artículos en colaboración sobre el Mark I y sus sucesores, el Mark II y el Mark III. 



     En relación con esto, Hopper está relacionada con uno de los momentos más curiosos de la historia de la informática, ya que fue en el Mark II donde se encontró el primer bug real. La historia es más o menos como sigue: se detectan errores en el Mark II y, después de analizarlo, se encuentra un pequeño bichito entre las conexiones. El caso se refleja como una incidencia llamando bug al bichito (que es precisamente lo que significa en inglés), quedando a partir de ahí ese nombre para los errores de los programas informáticos. Si bien no fue Hopper quien lo encontró, sí que parece ser que fue quien difundió esta denominación para los errores informáticos.

     Pero, sin duda, el nombre de Grace Murray Hopper debe y tiene que estar asociado al COBOL, lenguaje de programación orientado principalmente hacia el mundo de los negocios que ella desarrolló y que todavía hoy se utiliza de manera masiva.

     A mediados de la década de los 50 del siglo XX, Hopper entró a formar parte de una compañía privada como matemática. Esta compañía se llamaba en aquel momento Eckert-Maunchly Corporation, y la llevaban John Presper Eckert y John William Mauchly, padres del famosísimo ENIAC. Hopper llegó a la misma para contribuir al desarrollo de la informática más allá de sus usos eminentemente militares, y vaya que lo hizo. Desarrolló el primer compilador de la historia y el primer compilador para procesamiento de datos que usaba órdenes en inglés: el FLOW-MATIC.

     Pero no quedó ahí la cosa. Hopper quiso dar un paso más para intentar crear un lenguaje de programación mediante el cual el computador entendiera el inglés, la lengua de los negocios, y que pudiera utilizarse en cualquier ordenador. Estas ideas sentaron las bases del COmmon Business-Oriented Language (COBOL), y un par de años después de esto se creó un comité para diseñar dicho lenguaje. Aunque Hopper no tuvo un papel principal en el desarrollo del mismo, la influencia del FLOW-MATIC en su diseño hizo que se la considerara como la creadora del COBOL.

     Unos años después, en 1966, Hopper tuvo que retirarse de la Marina por cuestiones de edad, pero poco después fue llamada de nuevo para echar una mano con el pago electrónico de las nóminas durante un breve tiempo. Pero lo que en principio iban a ser 6 meses se terminaron convirtiendo en varios años. En 1973 Grace Hopper se retira a la reserva y es nombrada Capitán. Su retiro definitivo de la Marina se produjo en 1986, siendo ya Contraalmirante.

     Entre los múltiples reconocimientos que recibió Grace Hopper se encuentran más de 40 doctorados honoris causa, la Medalla de Servicio Distinguido de Defensa y la Medalla Nacional de Tecnología, y el hecho de que un destructor de la Marina estadounidense lleve su nombre: USS Hopper (DDG-70). También recibió el título de Hombre del Año (¿?) en 1969.

     Desde 1971 se entrega el Premio Grace Murray Hopper por parte de la ACM (Association for Computer Machinery). Entre los premiados se encuentran nombres ilustres de la informática moderna como Donald Knuth (primer premiado, 1971), Stephen Wozniak (en 1979) o Richard Stallman (en 1990).

     Y desde 1994 (y anualmente desde 2006) se celebra en su honor el congreso Grace Hopper Celebration of Women in Computing.
  
     Sin duda una mujer tremendamente interesante, una adelantada a su tiempo y una valiente a la que la informática le debe bastante de lo que es en la actualidad.