martes, 12 de junio de 2018

IBM REDUCE A 5 NANÓMETROS EL TAMAÑO DE LOS TRANSISTORES PARA LOS CHIPS DEL FUTURO

https://elpais.com/tecnologia/2017/06/26/actualidad/1498467552_426125.html


Interior de uno de los laboratorios de la empresa IBM.
Interior de uno de los laboratorios de la empresa IBM. IBM
          Un grupo de investigadores de IBM, junto con equipos de Global Foundries y Samsung, ha desarrollado un nuevo proceso industrial de fabricación que permitirá fabricar transistores y chips a una escala clave de 5 nanómetros (nm) en unos años, reduciendo aún más las escalas más avanzadas de 7 y 10 nm, que ya son posibles, y que pronto serán las más comunes.

          Esto supone un nuevo avance en la confirmación de la ley de Moore, propuesta por el ingeniero que fundó Intel allá por 1965. Básicamente, afirma que la capacidad de procesamiento de los chips se multiplicaría al tiempo que su tamaño se iría reduciendo cada cierto número de meses (originalmente, cada dos años). Aunque hay límite absoluto a esta ley empírica –el tamaño de los átomos– hasta ahora se ha cumplido de forma bastante aproximada. Y los ingenieros parecen querer hacerla durar más todavía.

          El avance logrado por IBM ha sido posible gracias a la utilización de lo que se denominan nanoláminas de silicio, que sustituyen a la tecnología FinFET (tridimensional) común hoy en día (para chips de 7 y 10 nm). A las nanoláminas se les aplica un proceso de grabación mediante litografía denominado "ultravioleta extrema" (EUV) que dibuja todos transistores del chip sin necesitar tanto espacio de separación como otras. De este modo se pueden empaquetar hasta 30.000 millones de transistores en un solo chip del tamaño de una uña, frente a los 20.000 millones como máximo que permitía la tecnología de 7 nm.

          Aunque ya se había ha demostrado la posibilidad de fabricar transistores más pequeños –como los de 1 nanómetro por parte de investigadores del Lawrence Berkeley National Laboratory– en esos casos la utilización de nuevos materiales (el disulfuro de molibdeno) todavía distaba de poder convertirse en un proceso industrial como los actuales. La fabricación de chips de IBM de 5 nm en cambio, con ideas que la compañía lleva una década poniendo en práctica, podría estar tan cerca como "unos pocos años", según ha afirmado los investigadores, que manejan fechas tentativas como 2020.

¿Qué ventajas suponen estos chips tan pequeños?

          Aparte de la lógica miniaturización al poder comprimir más transistores en menos espacio (hasta un 40 por ciento), también está el ahorro de energía (hasta un 75 por ciento), algo cada vez más importante de cara a su utilización en dispositivos móviles como teléfonos, tabletas, relojes o wearables. Según explican, estos chips permitirían no tener que recargar el móvil nada más que una vez cada dos o tres días.

          Aparte de esto, el poder contar con mucha más potencia en pequeños dispositivos gracias a los procesadores más potentes hará que no sean necesarios grandes equipos para disfrutar de aplicaciones en el campo de la inteligencia artificial, la realidad virtual o la llamada "internet de las cosas". ¿Lo más interesante? Que la carrera por la miniaturización no parece detenerse aquí, dado que como parte del anuncio de la tecnología de 5 nm se mencionaron varias veces las palabras "… y más allá".

FABRICADO EL TRANSISTOR MÁS PEQUEÑO DEL MUNDO


https://elpais.com/tecnologia/2016/10/19/actualidad/1476873307_047514.html

El profesor Ali Javey y el graduado Sujay Desai en el Berkeley Lab junto a sus instrumentos para el análisis de los transistores de 1 nm. Ampliar fotoEl profesor Ali Javey y el graduado Sujay Desai en el Berkeley Lab junto a sus instrumentos para el análisis de los transistores de 1 nm. MARILYN CHUNG/BERKELEY LA
          Investigadores del Lawrence Berkeley National Laboratory de Berkeley (Estados Unidos) han fabricado un transistor de 1 nanómetro, llevando más allá una de las limitaciones físicas que las escalas tan reducidas imponen a los microchips actuales. Para conseguirlo han utilizado nanotubos de carbono y un material llamado disulfuro de molibdeno sobre la capa de silicio convencional.

          La física impone un límite a la carrera sin fin por la miniaturización de los componentes básicos de la microelectrónica, límite al que siempre parece que nos estamos aproximando. La regla general es que cuanto más pequeños son los transistores de un chip, mejor: eso permite crear procesadores más rápidos, con menor consumo y de tamaño más reducido (o con más transistores en el mismo espacio). Ahí es donde entran los límites de la física: a partir de ciertos tamaños se sabe que los efectos cuánticos en los átomos de que están compuestos esos transistores harán inviable su funcionamiento.

          Los expertos utilizan varias escalas clave en la fabricación de los transistores de los microchips, que hoy en día rondan los 14 nm (nanómetros, millonésimas de milímetro), aunque los de 22 y 32 nm también son muy comunes. Los transistores de Intel en los chips de la familia Broadwell, Atom y Skylake son de 14 nm; algo similar sucede en los de Apple: los A9 y A10 son de 14 y 16 nm, fabricados por Samsung y TSMC. El siguiente salto tecnológico son los 10 nm (previstos para 2017) para pasar luego a los 5 nm hacia 2020. Pero estas aspiraciones de futuro son, de momento, meras conjeturas.

          NEC e IBM ya fabricaron en 2002 y 2003 transistores de 5 y 6 mm a modo de demostración, y, posteriormente, otros de 10 nm con buen rendimiento, dando una pista acerca de que los nanotubos de carbono podrían ser el camino. Esto ha sido confirmado con la fabricación de demostración del transistor más pequeño del mundo, de tan solo 1 nm, en el Berkeley Lab. El trabajo completo con todos los detalles ya se ha publicado en la revista Science.

Nuevos materiales para una nueva escala

          El disulfuro de molibdeno que se ha utilizado reemplaza al silicio como componente de las puertas del transistor. Tiene propiedades interesantes, según sus creadores, especialmente su buen comportamiento eléctrico. Esto permite encenderlo y apagarlo millones de veces por segundo, como los transistores actuales de los microchips. El nanotubo de carbono se emplea durante su fabricación porque los sistemas convencionales, como la litografía, no sirven a esa escala. Además, se aprovecha su estructura cilíndrica a modo de electrodos, con buen comportamiento.

          El avance que supone este transistor es interesante, pero los investigadores avisan de que se trata tan solo de una demostración científica, como las que ya hicieran IBM, NEC, Toshiba y otros hace más de una década: “Es una prueba de concepto. Ni hemos empaquetado miles de millones de transistores en un chip ni hemos desarrollado los sistemas para evitar las complicaciones típicas que surgen durante el proceso de fabricación. Pero es importante haber demostrado que ya no estamos limitados a 5 nm con el tamaño de las puertas de los transistores. La Ley de Moore podrá seguir cumpliéndose si somos capaces de utilizar los materiales, arquitectura e ingenierías adecuadas”, advierten.

LA LEY DE MOORE

          En 1965, uno de los fundadores de Intel, Gordon Moore, afirmó que el número de transistores en un chip se duplicaría "cada dos años”. Con el tiempo, un profesor del Cal Tech le otorgó el sobrenombre de Ley de Moore y el término cuajó. Luego sufriría ligeras modificaciones, incluyendo referencias a “la capacidad de procesamiento del chip” y al “tamaño de los transistores”. Incluso en vez de dos años se refinó el periodo de duplicación a 18 meses y se incluyeron factores como que “el coste se reducirá a la mitad”. El caso es que la definición es muy laxa y a raíz de esto surgieron todo tipo de controversias, la más común sobre dónde estaba el límite a la famosa Ley.

          Entendidas literalmente, algunas de las acepciones de la Ley de Moore parecen tener un límite lógico y físico: el tamaño de los átomos. Es por ello que cuando se entra en la escala de los nanómetros el asunto se complica: si un transistor mide más o menos 1 nanómetro es tan solo diez veces más grande que los 0,1 nanómetros que mide la «nube de electrones» de un átomo típico – y es difícil fabricar algo más pequeño. Los chips actuales tienen transistores de entre 10 y 20 nm y son tan solo 100 o 200 veces más grandes que esos átomos. Sin embargo, ingenieros y científicos siguen trabajando en hacer que la Ley de Moore perdure, con ingenio y nuevos descubrimientos que –de momento– van salvando la afirmación de Moore.

¿CUÁNTA ENERGÍA HAY EN UN RAYO?

https://elpais.com/elpais/2016/12/15/ciencia/1481798404_436882.html

Un rayo cae sobre la playa de Alhucemas. ULY MARTÍN


           Durante la mayor parte de la historia humana, a la gente le han asustado los rayos.Como aterradoras descargas procedentes del cielo, los rayos eran una herramienta de los dioses para castigar a los mortales por su arrogancia (o su desafortunada tendencia a refugiarse de las tormentas bajo los árboles). El descubrimiento y uso del pararrayos de Benjamin Franklin domesticó a esta arma divina antes formidable.

          No obstante, la fuerza de los rayos aún pervive en nuestra imaginación. Hollywood los considera lo bastante potentes para permitir que coches de extraño diseño de principios de la década de 1980 rompan el continuo espacio-tiempo. En el mundo de los cómics, es uno de los ingredientes de la receta para conseguir superpoderes. También se les ha conferido la capacidad de resucitar a los muertos, aunque no siempre con el resultado deseado.

          ¿Y cuánta energía hay de hecho en un rayo? Puede parecer que esta pregunta ya debería tener una respuesta definitiva, pero resulta difícil de responder en términos cuantitativos. En nuestras investigaciones, hemos abordado el asunto de un modo nuevo: hemos deducido la magnitud de un rayo a partir del tamaño de las rocas formadas por él.

Cálculos aproximados

          Está claro que un rayo es muy potente: no hay más que fijarse en un árbol partido por la mitad para constatarlo. Los rayos generan temperaturas más altas que la de la superficie solar, por encima de 20.000 grados Celsius, temperatura que, por lo demás, es impensable para los seres humanos.

          Esta medición de la temperatura ofrece un modo de calcular la energía de un rayo. Se requiere una determinada cantidad de energía para calentar el aire hasta una temperatura elevada. Si se mide la longitud de un rayo y esta se multiplica por la energía por metro necesaria para calentar el aire hasta decenas de miles de grados, se puede calcular la energía del rayo.

          También podemos abordar la medición de la energía de un rayo teniendo en cuenta el voltaje de una descarga. Un voltio es una medida de la cantidad de energía liberada cuando cada paquete de electrones pasa de un lado de un objeto a otro (por ejemplo, en una pila). Cuando cae un rayo, podemos averiguar elvoltaje que genera en las líneas eléctricas cercanas, que oscila entre cientos de miles y millones de voltios. A partir de la Ley de Ohm, se puede calcular la potencia del rayo multiplicando el voltaje por el número de electrones que se mueven durante la descarga, lo que se conoce como corriente. Si conocemos la duración de esta descarga, podemos calcular la energía a continuación.

          Estos métodos conllevan una gran variedad de errores: calcular mal la longitud del rayo, equivocarse en la cantidad de gas calentado por metro, o en la temperatura, el voltaje o el número de electrones (todos ellos, errores bastante grandes en el contexto de este cálculo).

          ¿Existiría otra manera de calcular la energía de un rayo, que redujese algunos de estos errores? Las extraordinarias características geológicas de Florida ofrecen una vía interesante mediante la que responder a esa pregunta.

Rayos fosilizados

          Florida suele ser una zona bastante aburrida para los amantes de las rocas. Hay arena y hay caliza. No mucho más, y todo es reciente, en términos geológicos. En algunos casos, la arena se depositó hace 15 millones de años y, en otros, hace cinco millones. Eso es mucha arena.

          El clima de Florida es un poco más interesante; de hecho, es el estado de EE UU en el que caen rayos con más frecuencia. Muchas veces, estos rayos caen en la arena que cubre la superficie del estado. Cuando esto sucede, se forma una nueva clase de roca, llamada fulgurita (un tubo hueco que se forma cuando el rayo atraviesa la arena, la vaporiza y derrite el borde exterior. Cuando la arena se enfría, cosa que sucede enseguida, el tubo hueco se convierte en un vidrio que registra el recorrido del rayo. Por definición, una fulgurita es una roca metamórfica que, transformada por el calor y la presión, deja de ser arena y se convierte en algo nuevo.

          Las fulguritas suelen escasear, a menos que se sepa dónde buscar. El centro de la zona peninsular de Florida alberga varias minas de arena que proporcionan materia prima para la fabricación de carreteras, cemento, campos de golf y pistas deportivas. En uno de esos yacimientos, hemos encontrado varios centenares de fulguritas; más de 250 se encontraban en el suelo, y muchas más en montones de escombros, filtradas de la arena antes de que esta fuese cargada en camiones.

          Estos yacimientos no son, de hecho, distintos de cualquier otra zona de Florida —no son una especie de imán para los rayos—, pero el entorno geológico es el adecuado para que se conserven durante mucho tiempo. Estas minas de arena probablemente contengan fulguritas acumuladas desde hace un millón de años. Son fáciles de encontrar: como el vidrio no es algo deseable en la arena comercial, en la mina lo filtran y lo desechan.

          El grosor de las fulguritas oscila entre, aproximadamente, el del dedo meñique de un bebé y el del brazo de un hombre adulto. Las más gruesas tuvieron que formarse por el impacto de rayos con mucha más energía: una fulgurita más gruesa equivale a una mayor cantidad de arena vaporizada. La mayoría de las fulguritas que hemos encontrado son fragmentos cortos, aunque las más largas medían uno o dos metros.

Cálculos basados en las fulguritas

          Se necesita una cantidad específica de energía para vaporizar la arena. Primero, la arena debe calentarse hasta los 1.700 °C, aproximadamente la temperatura de la lava fundida. A esta temperatura, la arena se derrite. La arena derretida se tiene que calentar a continuación hasta unos 3.000 °C, punto en el que se vaporiza. Hacen falta unos 15 megajulios de energía para calentar y vaporizar un kilogramo de arena. Es aproximadamente la cantidad de energía que una familia estadounidense media consume en seis horas, o la energía cinética que tendría un coche medio si se moviese a 483 kilómetros por hora.

          Tras medir nuestras fulguritas, llegamos a la conclusión de que la energía media necesaria para formar esas rocas fue de al menos un megajulio por metro de fulgurita formada. Calculamos la energía por metro porque, nuevamente en la mayoría de los casos, las fulguritas que recogimos estaban rotas.

          Así que, según nuestros cálculos, ¿cuánto se acerca Hollywood con cálculos como los de Regreso al futuro, de 1,21 gigavatios de potencia en un rayo? La potencia es la energía en función del tiempo, y nuestras mediciones de las fulguritas indican que con megajulios de energía se forman rocas en milmillonésimas de segundo. De modo que un gigavatio se queda corto en realidad; la potencia de un rayo podría ser 1.000 veces superior, con lo que llegaría al teravatio, aunque el valor medio seguramente sea de decenas de gigavatios.

          Con esa energía se proporcionaría electricidad a unos 1.000 millones de casas, aunque solo durante unas millonésimas de segundo. Por desgracia, dada su esporádica e impredecible naturaleza, ninguna red eléctrica podrá nunca aprovechar los rayos de forma eficaz. Pero con tantísima energía, puede que romper el continuo espacio-tiempo en un Delorean tuneado no sea tan inviable, después de todo...

Una singularidad en el patrón

          Cuando estudiamos a fondo las fulguritas, los datos arrojaron un resultado extraño. Nuestras mediciones de energía seguían lo que se conoce como un patrón “logarítmico normal”.

          En lugar de seguir la curva en forma de campana que suele tener la distribución de los fenómenos naturales —por ejemplo, la estatura de los hombres estadounidenses—, la curva de la energía presentaba un equilibrio más desigual. En el caso de la altura, hay el mismo número de hombres situados cinco centímetros por encima y cinco centímetros por debajo de la estatura media. Pero, en el caso de los rayos, los grandes eran mucho mayores que la media, mientras que los más pequeños no eran mucho más pequeños que la media. Los rayos que duplicaban la media eran tan frecuentes como los que se correspondían con la mitad de la media.

          Ahora bien, ¿qué interés o utilidad podría tener este hallazgo? Medir la energía de los rayos es una forma de medir los daños que pueden causar: si un rayo es capaz de vaporizar una roca, ¿qué haría con la madera o los aparatos electrónicos? Nuestras mediciones ponen de manifiesto que los rayos más grandes son múltiplos de los rayos de magnitud media: uno grande puede ser 20 veces mayor que uno medio, lo cual es mucho para un sistema de protección antirrayos. La energía máxima calculada mediante nuestro método de las fulguritas nos da una idea del daño máximo que podemos esperar y, en última instancia, nos permite estar mejor preparados para las peores situaciones posibles.

Matthew Pasek es Catedrático adjunto de Ciencias Geológicas (Universidad del Sur de Florida).

¿POR QUÉ LAS ANTENAS PARABÓLICAS SON PARABÓLICAS?

https://elpais.com/elpais/2017/01/04/el_aleph/1483528157_923387.html



          En ocasiones, los estudios y trabajos matemáticos se consideran innecesarios, prescindibles o una pérdida de tiempo aludiendo, principalmente, falta de utilidad o nulas aplicaciones prácticas de los mismos. Hoy, en este artículo, os traigo un caso que ejemplifica que estos estudios son necesarios, aunque en un principio no se les vea aplicación práctica, ya que nunca se sabe cuándo ni dónde podremos encontrarles utilidad: las antenas parabólicas. Su forma no alude a una cuestión estética ni a un capricho de algún fabricante, sino que responde a una cuestión meramente matemática, que concretamente usa de forma muy inteligente una propiedad de las parábolas conocida desde hace casi 2000 años.


          Antes de nada, vamos a recordar qué son las parábolas. Una parábola es una cónica (curva que surge de hacer un cierto corte a un cono) que se define como el conjunto de puntos que están a la misma distancia de un punto concreto, llamadofoco, y una cierta recta, llamada directriz. En la siguiente imagen podéis ver una parábola (en rojo), su foco y su directriz y la igualdad de distancias a esos dos objetos desde varios puntos de la misma:

          A partir de esta definición, es fácil construir un objeto en 3D girando la parábola respecto de un eje vertical que pasa por su foco. Al hacer esto, obtenemos una superficie tridimensional denominada paraboloide:

          ¿Os suena? Exacto, acabamos de crear una antena parabólica, cuyo foco es el mismo que el de la parábola que hemos girado.

          ¿Por qué esta forma es útil? Pues por una interesante propiedad de las parábolas que describimos a continuación:

Un punto del interior de la parábola que se mueva por una recta paralela al eje “rebotará” en la parábola y será enviado hacia el foco.

          Esto significa que si mandamos señales hacia la parábola que sean paralelas al eje, éstas serán reflejadas por ella hacia el foco, independientemente de la recta que usemos. Aquí tenéis una demostración de este hecho, atribuida a Dositeo. Tenéis una muestra gráfica en este applet de GeoGebra. Y en este otro applet podéis verlo de forma animada.

          Y esto es muy útil, ya que con un paraboloide que tenga un receptor de señal colocado en el foco podemos conseguir que todas las señales que reboten en el paraboloide acaben siendo enviadas a dicho receptor, sin necesidad de tener que apuntar directamente al mismo. Es decir, con un pequeño receptor obtenemos una gran recepción de señal utilizando toda la superficie del paraboloide de la forma descrita.

          Esta propiedad no se utiliza solamente para las antenas parabólicas, sino para otros dispositivos, como cocinas solares. Se construye un paraboloide que refleje los rayos del sol y se coloca en su foco el objeto a cocinar, consiguiendo así que se caliente mucho más rápido. Esto también puede usarse para acumular energía solar, colocando un acumulador en el foco del paraboloide.

          Por otra parte, esta propiedad también se puede usar de manera inversa. Colocamos en el foco del paraboloide un emisor de señal orientado hacia el paraboloide y emitimos dicha señal hacia la mayor parte posible de su superficie. Todas las señales “rebotarán” en la misma y se reflejará de forma paralela a su eje hacia afuera, consiguiendo así mayor emisión de señal que la que obtendríamos emitiendo solamente desde un punto. Por ejemplo, esto se puede usar en faros de vehículos (colocando una bombilla en el foco para emitir mayor cantidad de luz) o en micrófonos parabólicos (con un micrófono en el foco para emitir sonido a mayor superficie).

          Y para finalizar, otra curiosidad. Como podéis ver en la imagen principal que ilustra este artículo, el foco del paraboloide está sujeto con cuatro barras rectas que se apoyan en la superficie del mismo (hay que sujetarlo de alguna forma). Esto tiene el problema de que algunas señales, tanto si emitimos como si recibimos, pueden rebotar en estas barras y, por tanto, perderse. Para evitar esto, lo que se hace en algunas ocasiones es tomar para la antena una parte del paraboloide que no esté “debajo” del foco, sino “a un lado”, como puede verse también en las dos antenas que aparecen a la derecha en la imagen principal, o en la que podéis ver a la derecha. Así evitamos esos rebotes en las sujeciones, y conseguimos una antena más eficiente.

          Como podéis ver, estudios que en un principio se hacen sin pensar en posibles usos acaban encontrando aplicaciones prácticas muy interesantes y útiles, que, en este caso, han supuesto un gran desarrollo en muchos campos. Por ello, sería ideal que no subestimemos los estudios matemáticos, por muy abstractos que nos parezcan. Nunca se sabe cuándo pueden sernos de ayuda en el día a día.

          Otro uso de una antena parabólica:

https://desenchufados.net/como-construir-tu-propia-cocina-solar/



sábado, 9 de noviembre de 2013

CONSTRUYEN EL PRIMER ORDENADOR CON NANOTUBOS DE CARBONO

http://www.abc.es/ciencia/20130926/abci-construyen-primer-ordenador-nanotubos-201309261009.html

En una búsqueda de nuevos materiales que sustituyan al silicio para crear equipos electrónicos más eficientes, ingenieros de la Universidad de Stanford (EE UU) han logrado construir por primera vez un ordenador hecho íntegramente con transistores de nanotubos de carbono (CNT, por sus siglas en inglés).

Se trata de un dispositivo todavía muy básico, pero que incluye un sistema operativo y es capaz de ejecutar varios programas al mismo tiempo.

Los autores del proyecto, cuyos resultados se publican en el último número de Nature, señalan que este avance culmina años de esfuerzos por parte de científicos de todo el mundo para aprovechar este prometedor pero peculiar material.

Según explica a SINC Max Shulaker, autor principal del trabajo, “los nanotubos de carbono representan un importante avance respecto a los actuales transistores de silicio y prevemos grandes mejoras tanto en el rendimiento como en la eficiencia energética”.

Más finos que un cabello

 

Los nanotubos de carbono son largas cadenas de átomos extremadamente eficientes en la conducción y el control de la electricidad. “Son tan finos que miles de ellos podrían caber unos junto a otros en un cabello humano y requieren muy poca energía para apagarlos”, indica.

Shulake añade que el trabajo demuestra que es posible fabricar nanotubos de carbono, pese a que esta tecnología tiene aún imperfecciones inherentes. “Sin embargo, nosotros hemos logrado superar estos obstáculos y presentar el sistema basado en carbono más avanzado hasta la fecha”, subraya.

Entre las dificultades que tiene trabajar con este material destaca que los nanotubos de carbono no crecen en líneas paralelas, como a los fabricantes de chips les gustaría. Otro problema es que una porción de estos nanotubos pueden acabar comportándose como cables metálicos que siempre conducen electricidad en vez de comportarse como semiconductores que pueden apagarse, señala la Universidad de Stanford en un comunicado.

Para superar estos obstáculos, el equipo llevó a cabo un diseño que llamó “inmune a imperfecciones” que consistió en eliminar los nanotubos que se comportaban como cables. Luego apagó todos los CNT ‘buenos’ y bombeó el circuito semiconductor lleno de electricidad.

Toda esa electricidad se concentró en los nanotubos metálicos, que se calentaron tanto que se quemaron y, literalmente, se vaporizaron convirtiéndose en dióxido de carbono. “Esta sofisticada técnica eliminó todos los CNT metálicos del circuito”, indican estas fuentes.

“Evitar los nanotubos desalineados requirió aún mayor sutileza”, señalan los autores. Para ello, los investigadores crearon un potente algoritmo que traza un esquema del circuito y que garantiza que funcione sin importar si los nanotutbos están o no torcidos.

Los ingenieros utilizaron este diseño inmune a imperfecciones para ensamblar un ordenador básico con 178 transistores, un límite que vino dado por que utilizaron las instalaciones de la universidad, en vez de un proceso de fabricación industrial, aclaran.

Contar y ordenar números

 

El ordenador fue capaz de realizar tareas como contar y ordenar números. Además, incorpora un sistema operativo básico que permite llevar a cabo intercambio de esos procesos. Para mostrar su potencial, los investigadores probaron que el dispositivo también podía ejecutar una instrucción comercial denominada MIPS (Microprocessor without Interlocked Pipeline Stages), desarrollada a comienzos de la década de los ochenta del siglo pasado por John Hennessy, ingeniero y actual presidente de la Universidad de Stanford.

Por su parte, Franz Kreupl, investigador de sistemas electrónicos híbridos de la Universidad de Munich (Alemania) y autor de una reseña sobre el proyecto, que también ha sido publicada en en Nature, indica que trabajos tanto teóricos como experimentales “han demostrado que los nanotubos de carbono son los interruptores electrónicos de mayor eficiencia energética con una escalabilidad muy por debajo de los 10 nanómetros”.

En su opinión, el trabajo de Shulaker y su equipo es muy valioso, ya que ha podido superar las dificultades que tiene trabajar con nanotubos de carbono y construir el primer ordenador funcional con este nuevo material emergente, “muy superior en este tipo de aplicaciones a competidores como el grafeno”.

Para concluir, los autores del trabajo señalan que la demostración del nuevo dispositivo confirma que los nanotubos de carbono son una tecnología factible para desarrollar la próxima generación de sistemas electrónicos de alta eficiencia energética.

SEMICONDUCTORES FLEXIBLES PARA DOBLAR LA ELECTRÓNICA

http://sociedad.elpais.com/sociedad/2013/09/24/actualidad/1380048201_151335.html


Cualquiera que lleve el teléfono móvil en el bolsillo trasero del pantalón apreciaría la comodidad que supondrían los dispositivos electrónicos flexibles, sostienen unos expertos de California que han dado un paso adelante hacia los materiales semiconductores plásticos que puedan doblarse y estirarse pero comportándose como los buenos materiales semiconductores, que son rígidos y quebradizos. La electrónica flexible, añaden los investigadores de la Universidad de Stanford, podría desembocar en un abanico de nuevos productos, desde tejidos con cableado para hacer ropa que enfríe o caliente a quien la vista, o tabletas que se doblen como un periódico.

La investigación sobre polímeros semiconductores no es una novedad. Muchos expertos están intentando crear plásticos que se puedan doblar y estirar sin que resulte mermada su capacidad superconductora. “Pero a nivel molecular, los polímeros parecen un plato de espaguetis y esas estructuras no uniformes tienen importantes implicaciones en las propiedades conductoras de los polímeros semiconductores”, explica el ingeniero químico Andrew Spakowitz, de la Universidad de Stanford. Este experto, su colega Alberto Salleo, y Rodrigo Noriega (Universidad de California en Berkeley) han desarrollado lo que ellos consideran el primer marco teórico que abarca las inhomogeneidades estructurales a nivel molecular de los polímeros semiconductores, lo que permite comprender, predecir y mejorar sus conductividad.

El problema, explican estos expertos, es que los semiconductores poliméricos tienden a conducir la electricidad de modo diferente en distintas partes del material, una variabilidad que depende precisamente de si las fibras del polímero están enrolladas como espaguetis cocidos o forman líneas relativamente uniformes, aunque se curven. “En otras palabras, la estructura entrelazada que permite a los plásticos y otros polímeros doblarse es lo que dificulta la conducción eléctrica, mientras que la estructura regular de los semiconductores de silicio los hace ser buenos dispositivos eléctricos, pero malos para llevarlos en el bolsillo trasero del pantalón”, resumen los expertos de Stanford. Su modelo teórico permite abordar la solución intermedia entre flexibilidad y conductividad.

Hasta los años setenta, los plásticos se consideraban, desde el punto de vista eléctrico, no conductores, de ahí su gran utilidad como aislantes para los cables, por ejemplo. Pero entonces Alan Heeger, Alan MacDiarmid y Hideki Shirakawa descubrieron los polímeros semiconductores, materiales que en determinadas condiciones pueden conducir la electricidad, y los tres científicos compartieron el Premio Nobel de Química en 2000.

Pero una cosa es transmitir la electricidad y otra hacerlo eficazmente. Los experimentos han mostrado que esos polímeros presentan anomalías en el flujo de electrones por el material. Y esa variabilidad, argumentan Spakowitz Salleo y Noriega, se debe a que, debido a la estructura de las cadenas moleculares del material, crea como vías rápidas y puntos de congestión para los electrones. Es como si una cadena polimérica siguiera una configuración relativamente recta hasta un punto donde se torciera en forma de U, como una horquilla, y los electrones se atascaran en esa curva cerrada antes de saltar a la otra recta.

“Las teorías anteriores de flujo eléctrico en polímeros semiconductores están básicamente extrapoladas de nuestra comprensión de los semiconductores metálicos e inorgánicos, como el silicio”, señala Spakowitz, mientras que ellos han abordado directamente a escala molecular el transporte de electrones en esos materiales plásticos. Con su teoría, simplifican las propiedades estructurales y electrónicas de los polímeros semiconductores a un pequeño número de variables.

jueves, 27 de junio de 2013

NÚMEROS CUÁNTICOS PARA CASINOS VIRTUALES

http://blogs.elpais.com/apuntes-cientificos-mit/2013/06/la-ciencia-es-m%C3%A1s-interesante-que-el-sexo-.html

     Lo que veis a vuestra derecha son dos células fotovoltaicas transparentes. Me las mostraron en el Instituto de Ciencias Fotónicas (ICFO) en Barcelona; un impresionante centro cuyo objetivo es comprender (ciencia) y aprovechar (tecnología) todos los aspectos relacionados con la luz que podáis imaginar. 
 
     De momento estas células fotovoltaicas transparentes resultan menos eficientes que las convencionales, y son todavía bastante costosas. Pero no dudéis ni un minuto que algún día dejarán de serlo, las tendréis recubriendo vuestro coche o filtrando luz de manera inteligente en las ventanas de los edificios, y la energía solar contribuirá a sustituir esta salvajada de ir quemando combustibles fósiles a discreción.

     De verdad; no sé decirte si esto ocurrirá en 10, 20 o 40 años. Pero ten por seguro que en un futuro no tan lejano explotaremos los recursos naturales de manera absolutamente sostenible, habremos erradicado la pobreza extrema, trabajaremos muchas menos horas (esto ya deberíamos empezar a pensarlo ya), y curaremos enfermedades que ahora generan enorme sufrimiento. Sucederá. No pierdas la perspectiva del avance científico, ni el impacto del cambio exponencial.

Nanopartículas para quemar cánceres

Icfo nanoparticle     Romain Quidant me habla de sus nanopartículas de oro que potencialmente podrían identificar células cancerígenas y quemarlas. 

     El proceso es conceptualmente sencillo: a nanopartículas inertes (de oro por ejemplo) se les añade un anticuerpo capaz de reconocer estructuras específicas de las membranas de células cancerígenas, de manera que al distribuirse por el organismo se enganchen sólo a ellas. Pero estas nanopartículas llevarán algo más: “algo” que reaccione y las caliente mucho cuando les llegue una luz (radiación) determinada.

     Resumiendo, el concepto es así de simple: se inyectan las nanopartículas al torrente sanguíneo, al cabo de un tiempo quedan enganchadas sólo a las células cancerígenas, y enviándoles radiación podremos hacer que se calienten hasta destruirlas. 

     Obvio que además de limitaciones técnicas habrá preocupación por su toxicidad, pero Quidant dice que no serán más tóxicas que la agresiva y contradictoriamente tan asumida quimioterapia. Y no es ciencia ficción; su grupo del ICFO ya ha diseñado nanopartículas, están trabajando con modelos animales y oncólogos de Barcelona, y explica que una experta de Texas ha empezado estudios clínicos con humanos. Comenta que la nanomedicina (enviar cosas a sitios del cuerpo para que realicen funciones específicas) está avanzando mucho, pero que no todo se publica en revistas científicas por los asuntos de propiedad intelectual y patentes que conlleva. 

La lenta Europa intenta recuperar terreno en el grafeno

     Algo parecido ocurre con el grafeno. El holandés Frank Koppens es uno de los grandes líderes del momento en este asombroso material que permite construir capas tremendamente resistentes (un elefante sobre una aguja de grafeno no la rompería), súper-conductoras, y al mismo tiempo ligerísimas y finísimas de sólo un átomo de grosor. Las propiedades de los materiales bidimensionales como el espectacular grafeno son únicas, y sus posibles aplicaciones en baterías, técnicas de imagen, salud, energía, estructuras ligeras y resistentes, detectores, pantallas, y todo tipo de aparatejos electrónicos, interminables. Es parte del futuro.

     La Comunidad Europea ha diseñado una hoja de ruta y dedicado 1000 millones de euros a su estudio, quizás por darse cuenta que a pesar de ser descubierto en Europa y empezado a desarrollar por investigadores europeos, en estos momentos en cuanto a patentes está muy por detrás de EEUU o Asia.

Icfo frank     “Asia and US have many more patents. Actually, it’s embarrassing” (vergonzante) dice Frank. “I think it’s a matter of mentality”, responde cuando le pregunto porqué Europa se quedó atrás.

     Científicos españoles tan reivindicativos de la investigación básica, tomad nota también de esto. Para generar verdadero valor en la ciencia debemos recorrer el camino completo, empezando evidentemente por el principio, pero avanzando hasta el final.

La bomba atómica desde dentro de Los Álamos

     Seguro que el grafeno tendrá aplicaciones militares también. No olvidemos que el presupuesto de investigación científica del departamento de defensa estadounidense (DARPA) es mayor que el de la NASA, el National Institutes of Health (NIH) y la National Science Foundation (NSF) juntos. 

Info glauber 2      De hecho mi visita al ICFO coincidió con una charla del premio Nobel de Física Roy Glauber, quien hace más de 60 años trabajó en Los Álamos en el proyecto Manhattan que generó la bomba atómica. Glauber explicó que unos años antes, físicos teóricos haciendo ciencia básica totalmente inocente habían descubierto que los átomos de Uranio desprendían bastante energía al fisionarse. Vieron luego que si se les bombardeaba con átomos de Bario lo hacían con mayor facilidad, y que curiosamente había un isótopo del Uranio (el U235) que era menos abundante pero podía fisionarse todavía más fácilmente con neutrones. Además, también descubrieron que al desintegrarse el propio U235 liberaba neutrones que –en caso de estar muy concentrado- podían empezar una peculiar reacción en cadena. Todo era muy interesante, se presentaba en conferencias científicas, salía en los medios… hasta que de repente dejó de hacerlo y pareció caer en el olvido. 

     El gobierno estadounidense reclutó científicos en absoluto secreto y construyó los laboratorios de Los Álamos que iban a explorar las posibilidades de esta tan energética y potencialmente destructiva reacción en cadena de fisión nuclear. 

     Glauber explicó que cuando le propusieron el trabajo no le explicaron dónde sería ni de qué trataría, que los jefes hablaban en código entre ellos, o que Niels Bohr utilizaba el nombre falso de Nicholas Baker. Sus comentarios sobre el ciclotrón desaparecido de Harvard, conferencias con títulos “The theory and practice of bombing”, y los relatos sobre las personalidades de Feymann, Teller, Fermi u Oppenheimer fueron historia viva de la ciencia. Fascinante.

  
Números cuánticos para casinos virtuales 

     Antonio Acín estudia información cuántica pero reconoce que los lejanos ordenadores cuánticos no son su primer interés. Él está metido de lleno en la criptografía cuántica, viendo nuevas maneras de codificar la información sin que ni los mejores hackers puedan interceptarla (algo que ya ocurrió con los primeros dispositivos comerciales).  

Icfo labonachip3      Antonio me habla también de sensibilidad y de detectar ondas gravitacionales gracias a fluctuaciones cuánticas, pero lo que me resulta más curioso es la utilización de cálculos cuánticos para crear números aleatorios. Pone como ejemplo que los programas informáticos de un casino virtual generan números aleatorios con complejísimos algoritmos que resultan prácticamente indetectables. Pero no es del todo imposible hackearlos. Al final se trata de un sistema clásico guiado por reglas complejas, pero establecidas. No son 100% aleatorios ni impredecibles. 

     En cambio si los números se generaran utilizando propiedades como la indeterminación cuántica, sí serían absolutamente aleatorios. Ya se está haciendo, y casinos, bancos, militares o empresas podrían tener gran interés en comprar paquetes de ellos. Vender números aleatorios, un negocio en alza ;).

Las bacterias utilizan la cuántica mejor que nosotros

Icfo fotosintesis      La visita termina con Niek van Hulst, quien acaba de publicar un Science explicando que las plantas y bacterias utilizan la coherencia cuántica para extraer energía solar. Lo que Niek ha descubierto tiene un punto rompedor: en coherencia cuántica un sistema formado por varios átomos se comporta como un único sistema cuántico. Eso se ha logrado en condiciones muy restringidas de laboratorio, pero se suponía que en la naturaleza estos sistemas no eran estables. Pues se ve que en ciertos complejos proteínicos involucrados en la fotosíntesis sí lo son, y además utilizan estas propiedades cuánticas para almacenar y transportar energía de manera más eficiente. Algo a estudiar e intentar imitar tecnológicamente, desde luego. La naturaleza demuestra que todavía nos lleva mucha ventaja. 

La ciencia es la gran apuesta

     Almorcé con Lluís Torner, el director y alma de este fabuloso instituto de ciencias fotónicas que nada tiene que envidiar a grandes centros de EEUU o Europa. Lluís explica que de momento a ellos no les está afectando tanto la crisis porque cuentan con mecenazgo y gran parte de su financiación proviene de fondos europeos. Pero a pesar de eso, se muestra preocupadísimo por la situación de la ciencia en España. Percibe que algunas pérdidas causadas por los recortes son irreparables. Esto no es como un edificio que puedes detener su construcción unos meses y retomarla desde el punto que la has dejado. 

     No lo dice Torner sino yo: un país que exporta inteligencia se vuelve menos inteligente. Sin eludir la autocrítica que el sistema de investigación español debería hacer y no hace (de puertas adentro bien que rajan de instituciones y modelos), observar las posibilidades que nos ofrece la ciencia y decidir quedarse al margen es lamentable. “No hay momento malo para hacer algo bueno”, decía el ladrón de cerebros. Ayer en su discurso presentando el plan de cambio climático Obama fue muy contundente: ¿sostenibilidad ambiental vs crecimiento económico? Esta dicotomía es falta y propia de personajillos cortoplacistas poco visionarios. Gracias a la ciencia y la tecnología podemos tener ambos. Si apostamos por ella, claro.