miércoles, 22 de junio de 2011

CIENTÍFICOS DESCUBREN UNA MANERA SIMPLE DE CREAR GRAFENO EN GRANDES CANTIDADES

http://www.abc.es/20110621/ciencia/abci-cientificos-descubren-manera-simple-201106211020.html

Este material podría sustituir al silicio en los ordenadores y revolucionar la informática en el futuro.

Científicos de la Universidad de Illinois (EE.UU.) dicen haber descubierto un método sencillo y barato para producir grandes cantidades de grafeno, una famoso material compuesto por nanoestructuras de carbono que algunos creen que podría sustituir al silicio en la fabricación de semiconductores y revolucionar la informática. La nueva técnica, que consiste en quemar magnesio metálico puro en hielo seco, aparece publicada en la revista Journal of Materials Chemistry.

El grafeno ha sido objeto de una intensa investigación científica en los últimos años. Se trata de un material bidimensional, consistente en una sola capa de átomos de carbono dispuestos en una retícula hexagonal. Es el material más fuerte jamás registrado y tiene otras notables cualidades, como la alta movilidad de sus electrones, una propiedad que eleva su potencial uso en los veloces nanodispositivos del futuro. Además es una sustancia resistente, elástica, dotada de la mayor conductividad eléctrica y térmica que existe y su cristal tiene el grosor de un átomo. Es prácticamente transparente y tan denso que ni siquiera el helio puede atravesarlo.

El nuevo método de los investigadores convierte el dióxido de carbono directamente en capas de grafeno (de menos de 10 átomos de espesor) quemando magnesio metálico puro en hielo seco.

«Está científicamente comprobado que la combustión de magnesio metálico en dióxido de carbono produce carbono, pero la formación de este carbono con capas de grafeno como producto principal no ha sido identificada ni probada como tal hasta nuestra investigación», asegura Narayan Hosmane, profesor de química y bioquímica responsable del grupo de investigación.

«El proceso sintético se puede utilizar para producir potencialmente grafeno en grandes cantidades», añade. «Hasta ahora, el grafeno se ha sintetizado mediante diversos métodos que utilizan productos químicos peligrosos y técnicas tediosas. Este nuevo método es simple, ecológico y rentable».

EL MP3, SÓLO UNA HORA AL DÍA Y A MENOS DEL 60% DE INTENSIDAD

 http://www.abc.es/20110621/sociedad/abci-solo-hora-menos-intensidad-201106211304.html

 

Expertos en audición alertan sobre la pérdida de audición entre los jóvenes.

 
Una hora al día y a menos del sesenta por ciento de su intensidad es el límite del uso de los aparatos de música tipo Mp3 que aconsejan los profesionales médicos especializados en audición, tras detectar un aumento de la incidencia de la pérdida de audición entre los jóvenes.
 
Así se ha puesto hoy de manifiesto durante la presentación en Valladolid de la campaña «No te olvides de tus oídos», organizada por los centros auditivos Gaes, según ha explicado a Efe la responsable en Castilla y León, Miriam Acevedo.

El ocho por ciento de la población española tiene algún problema auditivo, porcentaje que se incrementa en los mayores de 55 años, con el problema añadido de que no se presta a la audición la misma atención que a la vista o al cuidado dental.

Se ha detectado un aumento de la pérdida de audición tanto por un aumento de la contaminación acústica como por el uso de aparatos de música Mp3, con incidencia especial en este último caso entre los más jóvenes.

Pérdida progresiva

 

La campaña pretende concienciar a la población de la importancia de cuidar la audición con una revisión anual, ante el dato de que el cincuenta por ciento de los españoles no se ha hecho nunca una revisión auditiva.
El problema es que no hay una pérdida brusca de la audición sino que es progresiva, ha explicado Acevedo, quien ha insistido en que hay que mentalizar sobre la importancia de estas revisiones para detectar si hay alguna pérdida y poder actuar.

martes, 21 de junio de 2011

NANOFABRICACIÓN, ¿CINCELAR LO GRANDE O UNIR LO PEQUEÑO?

http://www.elmundo.es/elmundo/2011/06/08/nanotecnologia/1307533505.html

Un buen ejemplo para entender la necesidad de fabricar estructuras cada vez más pequeñas lo encontramos en la industria electrónica. ¿Qué rapidez y potencia podrían llegar a tener nuestros ordenadores?, ¿se podrá alguna vez fabricar 'cerebros' informáticos con capacidades semejantes a las de los seres humanos?, las respuestas a estas preguntas dependen, en cierta medida, de cómo de pequeños y densos seamos capaces de fabricar los circuitos electrónicos.

En 1965, G. E. Moore estableció la ley que lleva su nombre y que predice que el número de transistores que pueden colocarse en un circuito integrado de silicio, y por lo tanto la velocidad de computación, se dobla aproximadamente cada dos años. Sorprendentemente esta ley se ha cumplido durante las últimas cuatro décadas. Actualmente la industria microelectrónica es capaz de fabricar casi 3.000 millones de transistores por circuito.

¿Quitamos material o lo vamos añadiendo?


Para fabricar estructuras cada vez más pequeñas se han planteado dos estrategias distintas. La primera consiste en partir de una cantidad apreciable de material e ir eliminándolo poco a poco, de forma semejante a cómo un escultor se va deshaciendo de la roca sobrante hasta alcanzar el tamaño y forma que desea. A esta opción se le ha denominado método 'descendente'. Es de esta forma como se ha conseguido fabricar los diminutos transistores actuales, cuyas partes más pequeñas miden unas pocas decenas de nanómetros. Esta reducción de la materia inorgánica 'dura', como por ejemplo el silicio de los transistores, se acerca a la nanoescala desde arriba, esculpiendo.

La segunda estrategia es la opuesta a la anterior: partir de los elementos más pequeños posibles (por ejemplo átomos o moléculas) y unirlos hasta formar sistemas de tamaño nanométrico. Esta metodología ha sido denominada 'ascendente'.

¿Cuál se impondrá?


Cada propuesta tiene sus propias ventajas y aplicaciones. Sin embargo, la mayor parte de la comunidad científica ha llegado al convencimiento de que la opción que mayor alcance tendrá en el futuro será la de la construcción desde abajo, a partir de unidades pequeñas. Un método ascendente muy prometedor consiste en elegir adecuadamente las fuerzas que actúan a pequeña escala (fuerzas químicas, eléctricas, magnéticas y sofisticaciones de las anteriores que actúan entre átomos y moléculas) para que de forma autónoma se vayan componiendo las nanoestructuras que necesitemos. Esta forma de nanofabricación se denomina 'autoensamblaje'. El auto-ensamblaje es también la opción que ha elegido la naturaleza para fabricar sus componentes biológicos.
Los esquemas muestran cómo se auto-ensambla una nanopartícula magnética para su investigación en aplicaciones biomédicas. La profesora de investigación Soledad Penadés somete esta primera disolución con diferentes moléculas a distintos procesos químicos que disparan las fuerzas de interacción que hace que se unan los átomos de oro y hierro, formando un núcleo inorgánico con una envoltura de material orgánico.

La escala nanométrica: el lugar de encuentro en la actualidad


Justo es ahora cuando dos grandes campos de las ciencias naturales se están encontrando. Por una parte, se está consiguiendo reducir el tamaño de la materia inorgánica dura, acercándose a la nanoescala desde arriba. Por otra parte, químicos orgánicos y biólogos cada vez están sintetizando y manipulando materia orgánica 'blanda' (moléculas, polímeros, etc.) de mayor tamaño, acercándose a la nanoescala desde abajo.

Aunque las estructuras utilizadas en los dispositivos son todavía minerales (semiconductores, cerámicas, metales, óxidos), los sistemas más fiables y de mejor rendimiento son aquellos que se encuentran en los organismos vivos. Ahora que las dimensiones de trabajo de ambos campos están convergiendo, se está empezando a considerar el incluir las estructuras y dispositivos inspirados por la sabia naturaleza en soluciones a problemas de importancia para la sociedad actual.

La nanoelectrónica del futuro


Existe un amplio consenso en que la microelectrónica actual, basada en la tecnología del silicio, no continuará creciendo según la Ley De Moore más allá del 2015. El motivo es que llegará un punto en el que no será económicamente viable seguir miniaturizando los componentes. A la dificultad de fabricación se une a la necesidad de disipar el calor generado por los dispositivos tan densamente empaquetados.

Para seguir aumentando la velocidad de computación será necesario encontrar caminos alternativos. Numerosos grupos de investigación están explorando la posibilidad de utilizar moléculas orgánicas como transistores. Si un transistor actual fuese como esta página del tamaño de un folio, un transistor molecular equivalente tendría el tamaño de un punto ortográfico. Uno de los principales retos de la nanotecnología y la nanociencia es aprender a unir componentes orgánicos e inorgánicos para explotar atributos específicos individuales en nuevas estructuras híbridas.

Mónica Luna es investigadora en Nanociencia y Nanotecnología del Instituto de Microelectrónica de Madrid (CNM-CSIC).


UN SUPERORDENADOR JAPONÉS, EL MÁS RÁPIDO DEL MUNDO

http://www.abc.es/20110620/tecnologia/abci-superordenador-japones-rapido-mundo-201106201342.html

 

La computadora «K» alcanza los mil billones de operaciones por segundo, tres veces más rápido que su rival china.


 


Un superordenador japonés llamado «K» se ha convertido, según sus creadores, en el más rápido del mundo. La computadora, desarrollada por Fujitsu y que ha recibido fondos estatales, ha superado los 8.000 billones de cálculos por segundo o petaflops (operaciones de punto flotante por segundo), por encima de la china Tianhe-1A, que hasta ahora ostentaba el puesto de la máquina más rápida.

El rendimiento del equipo «K» ha sido reconocido por la lista TOP500 que recoge las computadores más veloces del mundo. Su liderazgo se ha dado a conocer en la Conferencia Internacional de Supercomputación celebrada en Hamburgo (Alemania). Es la primera vez desde 2004 que una supercomputadora construida en Japón se alza con el primer puesto. El simulador terrestre Earth reinó entre junio de 2002 y noviembre de 2004.

Investigación del clima

 

«K» todavía está siendo configurada y ha sido ensamblada desde octubre de 2010 en el Instituto RIKEN de Ciencias de la Computación en Kobe, al oeste de Japón. Acabará de ser completada en junio de 2012. Contiene 68.544 CPUs y 672 cabinas

«Esperamos que el uso del superordenador tenga un impacto revolucionario en campos que van desde la investigación del clima global, la meteorología y la prevención de desastres a la medicina, lo que contribuye a la creación de una sociedad próspera y segura», han indicado sus responsables. Desde Fujitsu y RIKEN también han indicado que el proyecto pudo superar las dificultades que planteó el terremoto y el tsunami que devastaron el noreste del país.

INTERNET TENDRÁ NUEVOS DOMINIOS

 http://www.abc.es/20110620/tecnologia/abci-internet-tendra-nuevos-dominios-201106200847.html

 

«.canon», «.hotels» o «.banks» podrán estar operativos a finales de 2012

 La Internet Corporation for Assigned Names and Numbers (ICANN), una organización internacional sin fines de lucro, responsable, entre otras cosas, de asignar el espacio de direcciones numéricas de protocolo de Internet (IP), ha aprobado en una reunión en Singapur una serie de nuevos dominios genéricos que responden al nombre de marcas o de servicios como «.news», «.hotels» o «.bank». Las grandes marcas del mundo de la comunicación, entretenimiento y el mundo financiero son los candidatos más probables para solicitar los nuevos dominios de primer nivel «mimarca», según una encuesta llevada a cabo por INWW/Melbourne IT Digital Brand Services. 

 

Esta medida cambiará la forma en que las empresas protegerán sus marcas en Internet. El 82% por ciento de las 150 organizaciones que han participado en el estudio manifestaron que su opción preferida sería su marca principal, o una «mimarca». (por ejemplo: Canon ha declarado públicamente que solicitará «.canon»). Un 11% indicó que estaban interesados en la solicitud de un término genérico como un TLD («.news», «.hotels», «.bank»...).

ICANN ha aprobado en Singapur el borrador final de su nuevo programa para nuevos dominios genéricos, allanando el camino para que las solicitudes abiertas empiecen a finales de 2011. ICANN ha indicado que prevé entre 300 y 1.000 nuevos TLD que podrían ser creados en el marco del nuevo programa, proporcionando una alternativa a los 21 TLD existentes, tales como «.com», «.net», «.info». 
 

Contra violaciones

 

Las marcas dirigidas al consumo son las más interesadas en adquirir nuevos dominios. El mayor interés proviene de marcas del mundo del entretenimiento, la industria editorial y los medios de comunicación, y el sector financiero, seguido de la informática y telecomunicaciones, artículos de viaje y turismo...

La razones para llevar a cabo las solicitudes de nuevos dominios son la protección contra la violación de marca y la creación de una ventaja competitiva para su negocio. Las 150 organizaciones entre las que se ha llevado a cabo el cuestionario se distribuyen en los Estados Unidos, Europa y Asia-Pacífico.

«La decisión tomada hoy por ICANN supone una innovación en el sistema de nombres de dominio, que desarrollará un nuevo modo de navegar en internet, diferentes estrategias de protección de nombres y de marketing. Este es el mayor cambio de nombres de dominio desde la creación del punto com de hace 26 años», asegura Teresa Sobreviela, de INWW/MelbourneIt.

Operativos a finales de 2012

 

Las solicitudes para nuevos genéricos se abrirán desde el 12 de enero de 2012 hasta el 12 de abril del mismo año. ICANN publicará la lista de las solicitudes y comenzará a revisarlas una vez finalizado el periodo. Una vez cerrado el periodo de solicitud no existirán nuevas oportunidades hasta que transcurran 2 ó 3 años. Los nuevos dominios aceptados estarán operativos a finales de 2012.

No es la primera vez que ICANN aprueba un programa de nuevos dominios. Desde el año 2000 han existido varias oportunidades, por ejemplo cuando aparecieron los «.biz» e «info». La principal novedad es que ahora se van a aprobar muchos mas dominios y la posibilidad de tener un nuevo dominio genérico va a ser global.

martes, 14 de junio de 2011

PRIMER CIRCUITO INTEGRADO DE GRAFENO

http://www.elpais.com/articulo/Pantallas/Primer/circuito/integrado/grafeno/elpepurtv/20110611elpepirtv_2/Tes

IBM crea un mezclador de radiofrecuencia de banda ancha a 10 GHz 

En febrero de 2010, científicos de IBM crearon un transistor de grafeno capaz de funcionar a una frecuencia de 100 GHz. Ahora, investigadores de la misma multinacional estadounidense, a punto de cumplir sus 100 años de vida, han construido el primer circuito integrado con transistores de este revolucionario material, que permitirá fabricar microprocesadores, sensores y sistemas de comunicación mucho más veloces que los actuales. El avance, desvelado en la revista Science, consiste en un mezclador de radiofrecuencia de banda ancha -a 10 GHz- y está construido sobre una oblea de silicio.

"Es un hito importante. Supone el primer paso para demostrar que ya podemos fabricar circuitos integrados de grafeno. Y de la misma manera en que se fabrican los de silicio, porque el mismo proceso sirve para ambos materiales. El próximo paso será fabricar el chip de grafeno", asegura Elisa Martín Garijo, directora de Tecnología e Innovación de IBM en España. Aunque este circuito integrado de grafeno ha sido creado en laboratorio y su capacidad de cálculo todavía es limitada, explica Martín Garijo, "ya se puede utilizar en sensores, dispositivos móviles y pantallas".

El grafeno, derivado del grafito, es carbono en estado puro. Con propiedades entre semiconductor y metal, fue aislado hace solo siete años por los científicos Andre Geim y Kostya Novoselov, descubrimiento por el que recibieron el Premio Nobel de Física en 2010.

Se trata de un material muy resistente -200 veces más que el acero-, extremadamente flexible y un excelente conductor de electricidad.

"Su conductividad es extraordinaria y será de gran ayuda para construir aparatos electrónicos cada vez más pequeños y baratos, pero convivirá con el silicio durante tiempo", augura Martín Garijo.

viernes, 10 de junio de 2011

DÍA MUNDIAL DE IPv6: COMIENZA LA CUENTA ATRÁS

http://www.pcactual.com/articulo/laboratorio/especiales/8780/dia_mundial_ipv6_comienza_cuenta_atras.html
Las redes que hacen posible Internet tienen un primer asalto con el nuevo protocolo. Es el World IPv6 Day. Este día, importantes compañías como Google, Facebook o Yahoo!, que suman más de 1.000 millones de usuarios, van a trabajar de forma priotaria con IPv6 en sus servidores.

Además de ver si los sistemas están preparados para el nuevo protocolo, los promotores quieren concienciar a ISPs, fabricantes de equipos de red o desarrolladores de sistemas operativos. Yahoo! ha calculado que alrededor de un millón de los internautas que acudan a sus servicios pueden tener problemas serios, mientras que Akamai dice que un 0,05% de los cibernautas podría sufrir alguna incidencia.
Está previsto que a finales de año se acaben las direcciones de Internet bajo protocolo IPv4 y que los proveedores de acceso empiecen a trabajar con IPv6. Sin embargo, ¿están las infraestructuras, las páginas web o los PCs preparados para este cambio? ¿Estamos ante una reedición del Efecto 2000?
El mundo de la informática es muy dado al melodrama y al susto. Ocurrió con el cambio de milenio y el llamado Efecto 2000. Algunos llegaron a decir que, si no se actuaba, podrían caer el Pentágono, los sistemas de control aéreo o las bases de datos bancarias de medio mundo. Afortunadamente, nada pasó.

La histeria volvió con la entrada en vigor del euro. Los que temieron un caos generalizado del sistema financiero continental o de los sistemas de facturación de las empresas también pudieron respirar tranquilos. Nada relevante ocurrió.

IPv4 no da más de sí

IANA, Internet Assigned Numbers Authority, fue la máxima autoridad en cuando a la asignación de direcciones IP, nombres de dominio, etc. hasta 1998, fecha en la que gran parte de estas funciones fueron asumidas por ICANN, Internet Corporation for Assigned Names and Numbers.

El pasado 3 de febrero los medios de comunicación de todo el mundo daban cuenta de una noticia que volvía a encender las alarmas: se iniciaba la entrega de los últimos paquetes con el protocolo IPv4, el que se ha usado desde principios de los ochenta. IANA/ICANN iba a repartir a cada una de las cinco regiones en las que tiene dividido el mundo un paquete con casi 17 millones de direcciones.

Como cada zona va a su ritmo, y además cada operadora mantiene un stock de direcciones propio, el agotamiento de IPs con el viejo protocolo no llegará al mismo tiempo a todos los lugares. Los expertos dicen que en EE UU, Europa y Asia, donde la demanda de China e India crece a ritmo de vértigo, las direcciones se agotarán la segunda mitad de este año. Mientras tanto, en África sucederá en 2014.
IPv4 usa direcciones de 32 bits (del tipo 192.0.2.53.) y tiene capacidad para generar algo menos de 4.300 millones de direcciones únicas. Teniendo en cuenta que hoy en día Internet cuenta con más de 2.000 millones de usuarios, que en muchos países la Web está en sus albores y que el número de dispositivos de conexión también se expande sin parar (PC, consolas, tabletas y teléfonos, por no hablar de sensores para sistemas de vigilancia, casas inteligentes o sistemas de control sanitario), IPv4 finalmente se ha agotado.

Akamai, firma que gestiona el tráfico de datos de grandes multinacionales, asegura que en menos de 10 años habrá 50.000 millones de dispositivos conectados. Para solucionar esta escasez, IPv6, que las genera de 128 bits, proporcionará un número casi infinito de direcciones como ésta:
2001:0db8:85a3:08d3:1319:8a2e:0370:7334

«Cada usuario tendrá muchas más direcciones que toda la Internet actual, y seríamos capaces de llenar de direcciones trillones de planetas del tamaño de la Tierra», asegura Jordi Palet, director de Consulintel y miembro del comité operativo de IPv6 Task Force.

Miguel Serrano, director de ventas de Akamai en España, lo pone más gráficamente: «Si el espacio de las direcciones IPv4 fuera del tamaño de una pelota de golf, el de las direcciones IPv6 tendría entonces casi el del sol». Por lo tanto, se puede decir que el nuevo protocolo puede cerrar de una vez para siempre esta carestía. Palet dice que tendríamos direcciones para 480 años.

Internet de las cosas

Esta sobreabundancia puede acelerar la aparición de la Internet de las cosas, donde cada dispositivo, sensor o aparato que se nos pueda pasar por la cabeza tendrá varias direcciones. Según Palet, «con IPv6, cada usuario debería de recibir de su ISP, incluso en la ADSL doméstica, lo que se llama /48, es decir, un prefijo de 48 bits.

Es decir, cada usuario podrá disponer de 16 bits adicionales para sus redes de cables, wireless, de invitados, de electrodomésticos o de lo que sea. Estos 16 bits implican que podremos tener más de 65.000 subredes en cada hogar y oficina. Además, cada una de estas subredes tiene capacidad para 2 elevado a 64». En otras palabras, IPv6 permitirá a cada hogar disponer de más direcciones que toda la Internet actual.

Desde Telefónica nos aseguran que el viejo esquema de conexión en el hogar podría superarse en breve. Ahora, lo habitual es la asignación de una IP pública (estática o dinámica) al router doméstico y que los equipos conectados a él empleen una dirección privada asignada por este y válida solo para el hogar. Con IPv6, habrá direcciones suficientes para que cada dispositivo pueda tener una IP pública. Por su parte, David Noguer, del equipo europeo de Juniper, proveedor de tecnología para operadores de telecomunicaciones, señala: «cualquier dispositivo se comunicará con cualquier otro dispositivo directamente y sin necesidad de pasarelas».

En opinión de Leo Vegoda, director de recursos numéricos de ICANN, además de proporcionar direcciones para cada habitante del planeta, IPv6 permitirá una innovación sin límites ni permisos. «Los desarrolladores de aplicaciones no tendrán que pedir constantemente la aprobación y la colaboración de las operadoras y los fabricantes de equipos para lanzar nuevos servicios», comenta Vegoda.

La tarea de los ISP


Aunque las posibilidades del cambio están claras, no lo está tanto que la transición vaya a ser limpia y que los usuarios no vayan a tener problemas en los próximos meses. Jordi Palet, uno de los ingenieros que más se ha movilizado en España en las últimas semanas para advertir de lo que se nos viene encima, es claro: «El agotamiento de IPv4 puede implicar fallos e incluso páginas y servicios on-line inaccesibles para algunos usuarios si sus ISP no han desplegado IPv6 o bien mecanismos de transición en sus redes».

Desde Akamai se calcula que un 0,05% de usuarios tendrá problemas de acceso el 8 de junio, el día elegido por proveedores como Google, Facebook o Yahoo!, que suman más de 1.000 millones de usuarios, para trabajar de forma prioritaria con IPv6 en sus servidores.

En este asunto, la pelota está en el tejado de las operadoras y los proveedores de acceso. Palet aconseja a los usuarios que les reclamen que hagan los deberes en esta materia. No hay tiempo que perder, sobre todo si se tiene en cuenta que, a comienzos de año, las estadísticas de Google decían que solo un 0,2% de los usuarios tenía IPv6 de forma nativa.

Por lo tanto, el primer paso es que el ISP lo tenga todo listo. Además, tal vez sea conveniente actualizar el software del router doméstico o incluso reemplazarlo, aunque de momento no es imprescindible. En algunos casos, puede ser complicado porque podemos estar hablando de dispositivos que ya no se fabrican. Lo más fácil será poner al día nuestros ordenadores. Solo hay que activar el nuevo protocolo.

¿Está nuestro sistema operativo preparado?


En la Red hay un documento (www.ipv6tf.org/pdf/ipv6paratodos.pdf), financiado por Internet Society, que explica con todo detalle lo que un usuario doméstico necesita saber sobre IPv6 y cómo poner a punto su equipo para el nuevo protocolo. Su lectura es muy recomendable, ya que subraya algunas de las cuestiones que conviene tener en cuenta. La mayor parte de los sistemas operativos tienen, desde 2001, algún tipo de soporte para IPv6.

En Windows, a partir de XP SP1, Microsoft empezó a incluir soporte para este protocolo, aunque puede que no esté activado de serie. En Vista y en Windows 7, por su parte, el soporte está habilitado por defecto. No obstante, en el documento, que encontraréis en nuestro DVD, se explica el procedimiento para activar el protocolo por interfaz gráfica y de comandos.

En Apple, desde Mac OS X versión 10.2 (Jaguar) se halla habilitado el soporte por defecto, mientras que en Linux está soportado a partir de la versión del kernel 2.4.x.
En cuanto a las empresas con páginas web y servicios on-line, no hay necesidad de nueva infraestructura, pero sí será necesaria una «pequeña labor de consultoría». De todos modos, Jordi Palet recomienda a las compañías tener la red preparada para finales de año. Contando con los últimos paquetes de direcciones IPv4 y con el stock anterior en manos de los proveedores, Palet estima que no habrá problemas hasta ese momento, pero no más allá.

Además, recuerda que los organismos internacionales, como la OCDE y la Unión Europea, junto con varios gobiernos, ya han dado la voz de alarma asegurando que los ISPs no están preparados. Algunos estudios aseguran que los ISPs ya han desplegado IPv6 en sus redes troncales, pero muy pocos proveedores tienen este protocolo desplegado en la «última milla», es decir, el último tramo de conexión hasta el hogar. Palet cree que van a faltar ingenieros formados para materializar estos cambios. Para Leo Vegoda, de ICANN, el que los proveedores de acceso no implanten IPv6 de forma nativa significará que la conexión se podrá hacer, pero que no será tan buena como en la actualidad. En un mundo donde la velocidad de respuesta de una página es casi tan importante como su disponibilidad, el tema es peliagudo.

Telefónica y el cambio


Fuentes de Telefónica, uno de los grandes implicados en nuestro país, confían en que la transición sea tranquila. Prevén que el ritmo normal de renovación de equipos que se instalan en el hogar hará que los usuarios no noten el cambio de protocolo. Además, no encuentran ningún motivo para comparar este episodio con el Efecto 2000. En su lugar, lo ven similar a cuando un usuario cambia el móvil y el nuevo incluye tecnologías de mayor capacidad, argumentado que cuando llegó 3G, las redes 3GSM que ya existían no dejaron de operar ni hubo problemas de funcionamiento para los usuarios.

Eso sí, advierten de que el usuario que quiera el cambio ya tendrá que hacer cambios en algunos de sus dispositivos para asegurar que todos funcionen con el nuevo protocolo. En ocasiones, se hará mediante actualización de software, mientras que en otras será necesaria su sustitución. Telefónica, que empezó a realizar pruebas con el nuevo protocolo en 1999, se cuida de no dar la fecha en que ocurrirá esta transición en España apuntando tan solo que el agotamiento de IPv4 llegará en dos o tres años a nivel global.

Otra de las cuestiones pendientes es saber si, al haber un número casi infinito de direcciones IP, los operadores volverán a dar por defecto direcciones estáticas, como al principio de Internet, o dinámicas, que son las que se han impuesto en los últimos tiempos. Las estáticas, por las que se suele pagar un sobreprecio, son más inseguras, toda vez que el usuario siempre usa la misma puerta de entrada a Internet y son más fáciles de atacar. Sin embargo, son idóneas para montar servidores web o FTP, puesto que, poniendo la dirección en el navegador, accedemos al servicio que ofrece de dicha IP. Pues bien, los agentes consultados por PC Actual aseguran que todo dependerá otra vez del ISP.

Según David Noguer, las condiciones de negocio y de la competencia que se establezcan entre proveedores marcará la pauta. Sin embargo, Jordi Palet explica que, dada la abundancia de direcciones que trae IPv6 y que éstas van a costar mucho menos (el ISP paga una cuota al Registro Europeo dependiente de IANA por las direcciones que cede a sus clientes), «no tiene sentido entregar una sola dirección y que ésta sea dinámica».

Tecnologías de transición


Es importante señalar que la llegada de IPv6 no supondrá el final de IPv4. A pesar de ser protocolos incompatibles, las viejas direcciones seguirán vigentes hasta que las nuevas lleguen a reemplazarlas, un proceso que puede durar años. Algunos hablan de 20, otros dicen que no pasarán de 5. En cualquier caso, la transición, como nos explica Jordi Palet, director de Consulintel y miembro del comité operativo de IPv6 Task Force, «será como una balanza, donde un lado, IPv4, irá perdiendo peso a medida que el otro, IPv6, lo irá ganando».

Las dos tecnologías que con más probabilidad van a permitir esta transición con ambos protocolos funcionando a la vez son:
  • Sistema de Doble Pila. Son máquinas que ejecutan las dos pilas de protocolo. Los servidores dentro de una red con sistema de doble pila pueden comunicarse sobre IPv4 o IPv6.
  • Tunneling. A finales de 2010, la mayoría de clientes con conectividad IPv6 alcanza este protocolo mediante este sistema, que responde a la abreviatura de 6to4. El tunneling consiste en encapsular paquetes IPv6 dentro de paquetes IPv4, para permitir que se comuniquen dos nodos IPv6 sobre una infraestructura IPv4.

lunes, 6 de junio de 2011

EL 14% DE LOS NUEVOS ALUMNOS UNIVERSITARIOS PROCEDEN DE LA F.P.

 http://www.elpais.com/articulo/educacion/nuevos/alumnos/universitarios/procede/FP/elpepusocedu/20110606elpepiedu_1/Tes?print=1

El 14,5% de los alumnos que han empezado la Universidad este curso que está ahora a punto de acabar proceden de la FP de grado superior (hace falta tener el bachillerato para entrar), según los cálculos del Ministerio de Educación. Se trata de un salto muy importante desde el curso anterior, cuando fueron el 9,8% (una cifra que apenas había subido un punto desde 2006). En comunidades con fuerte implantación de la FP, el porcentaje de este curso ha sido incluso mayor: en Navarra el 22% y en Cataluña, el 21%.
La crisis económica, con un 42% de paro juvenil, probablemente ha hecho que muchos de esos titulados hayan decidido seguir sus estudios en los campus en lugar de salir al mercado laboral. Sin embargo, la razón principal es probablemente que, desde el año pasado, ya no hay cupos limitados para los alumnos procedentes de FP en cada carrera (era de entre el 7% y el 15%). Ahora, compiten con su nota media del ciclo formativo por las mismas plazas que los bachilleres recién titulados que llegan por la vía de la Selectividad. Así, en carreras como Educación Infantil, Enfermería o Fisioterapia han representado este año el 40% del alumnado nuevo, y en Terapia Ocupacional y Trabajo Social, el 30%, según el informe que ha hecho el Ministerio de Educación como balance del nuevo modelo de pruebas de acceso a la universidad que se estrenó el año pasado.
En este segundo año de la nueva Selectividad, que arrancó la semana pasada en Asturias y hoy empieza en Madrid y La Rioja, la principal novedad es que, por primera vez, los titulados de FP pueden presentarse a los exámenes voluntarios para subir su nota de acceso. Ahora las pruebas están divididas en dos fases: una obligatoria y esa otra optativa, obligada para los que quieren entrar en las carreras más demandadas.
A pesar de que hay sectores que señalan la vía de la FP como una especie puerta falsa de acceso a la Universidad, otros, entre ellos el ministerio, destacan que la inmensa mayoría de los titulados en FP de grado superior (el 87%) ya habían superado antes el bachillerato, mientras que el resto, ya titulados en FP de grado medio (se accede después de la ESO) han tenido que aprobar un examen con contenidos de bachillerato. Además, hay que sumar los otros dos años en ciclo superior con una formación "profesional y académica de primer nivel", insiste Educación.
De hecho, hay quien piensa que en realidad los que están en desventaja en el proceso son los que llegan de la FP. Por ejemplo, el Consejo Escolar del Estado. Los titulados de FP, al tener acceso directo a la Universidad, no necesitan hacer la prueba de Selectividad, pero, si quieren optar a estas carreras más codiciadas, pueden hacer ahora los exámenes optativos. El Consejo Escolar decía que las pruebas para estos alumnos deberían versar sobre lo que han estudiado en FP. Sin embargo, serán los mismos que hagan el resto de alumnos sobre las materias de bachillerato que ellos estudiaron, como poco, tres años antes.
En cualquier caso, miles de titulados en formación profesional van a hacer esos exámenes en las próximas semanas. Serán apenas una pequeña parte de los que pasen a la Universidad por la vía de la FP, a juzgar por los primeros indicios: entre las cinco comunidades en las que antes arranca la Selectividad de este año (La Rioja, Galicia, Castilla-La Mancha, Madrid y Asturias; en esta última se celebraron la semana pasada) suman 2.005. Es decir, una cifra pequeña (extrapolando al resto de España saldría que van a ser en total unos 7.000 u 8.000) comparada con los 55.000 titulados en FP que han empezado este año la Universidad.

viernes, 3 de junio de 2011

EL ELECTRÓN ES LA ESFERA MÁS PERFECTA DEL UNIVERSO

http://www.abc.es/20110530/ciencia/abci-electron-esfera-perfecta-universo-201105301117.html



Investigadores del Imperial College de Londres han llegado a la conclusión de que el electrón puede ser la esfera más perfecta del Universo. Lo que separa a estas partículas subatómicas de la redondez absoluta es menos de 0,000000000000000000000000001 cm, algo insignificante. En otras palabras, «si un electrón se inflara hasta el tener el tamaño del Sistema Solar, todavía parecería esférico dentro de la anchura de un cabello humano», asegura Edward Hinds, responsable del equipo de realizó las mediciones. La investigación ha sido publicada en la revista Nature.
 
Las mediciones no son solo una búsqueda de precisión. Muchos físicos han intentado calcular si el electrón está realmente aplastado, como predicen algunos teóricos. Si esa deformidad existiera, el descubrimiento demostraría que el tiempo es asimétrico y podría provocar una revisión de lo que se conoce como «modelo estándar» de la física de partículas. Es decir, que la física no trabaja de la misma forma cuando el tiempo retrocede que cuando avanza.

Medición muy sensible


El último estudio ha buscado el efecto de esta asimetría en los giros de los electrones expuestos a potentes campos eléctricos y magnéticos, pero no encontró nada. Los investigadores creen que cualquier desviación de una redondez perfecta de los electrones debe de medir menos de una milmillonésima de milmillonésima de milmillonésima de centímetro de diámetro. Para realizar las mediciones, los científicos utilizaron un haz de pulsos de fluoruro de iterbio, una técnica, según dicen, más sensible que la última utilizada por sus colegas de la Universidad de California en Berkeley en 2002, que usaron átomos de talio. 

Los investigadores creen que en los próximos años podrán mejorar su técnica en un factor de diez e incluso alcanzar finalmente un factor de 100, lo que sería suficiente para detectar los efectos de una posible distorsión y demostraría la existencia de nuevas partículas muy masivas. Los autores del estudio creen que su trabajo abre la puerta a grandes descubrimientos.

CÓMO SACAR UN SOBRESALIENTE DE 14 PUNTOS EN LA NUEVA SELECTIVIDAD

 http://www.abc.es/20110601/sociedad/abci-selectividad-201106011508.html


Este curso, la prueba incorpora la novedad de permitir a los alumnos que acceden a la Universidad desde los Grados Superiores de FP, Artes Plásticas y Diseño o Enseñanzas Deportivas presentarse a la fase voluntaria o específica de la PAU para concurrir a las plazas de las titulaciones más demandadas -en las que existe desequilibrio entre la oferta y la demanda- en las mismas condiciones que los estudiantes que proceden del Bachillerato. Hay que recordar que el curso pasado se aplicaron las primeras novedades de una prueba que fue modificada para adaptarla a las exigencias del Plan Bolonia. A partir del próximo año académico (2011-12) se prevé añadir un ejercicio oral de idioma extranjero.

La prueba, dividida en dos fases


El nuevo sistema establece una Selectividad dividida en dos fases: una general y otra específica. La primera, similar a la del antiguo modelo, consta de cuatro ejercicios: lengua castellana y literatura, lengua extranjera e historia o filosofía. Además, se añade a esta primera fase un examen de una asignatura de modalidad elegida por el alumno. Las asignaturas de modalidad se asocian a una de las tres vías en que se estructura el Bachillerato (Artes, Ciencias y Tecnología, o Humanidades y Ciencias Sociales). En las comunidades autónomas con lengua cooficial se añade un quinto ejercicio referido a la lengua vernácula correspondiente.

Este primer ejercicio deben hacerlo todos los estudiantes y su finalidad es valorar la madurez y destrezas básicas que deben acreditar para cursar las enseñanzas de Grado, el primer nivel académico universitario según la estructura de Bolonia.

Los exámenes se califican de 0 a 10 puntos y la nota final es la aritmética de todos. Para aprobar, hay que obtener en la prueba general una nota igual o superior a 5 como resultado de sumar el 60% del expediente del Bachillerato y el 40% de la calificación de los exámenes de esta fase. Eso sí, no se hará el cómputo si la media de los ejercicios no llega al 4. La validez de la calificación de este bloque obligatorio es indefinida.

El segundo examen es voluntario y está reservado a los estudiantes que desean elevar la calificación de cara al acceso a las titulaciones más demandas. Cada candidato puede examinarse de un máximo de cuatro materias de cualquier modalidad del Bachillerato, siempre distintas a la elegida en la fase general. Dos de las calificaciones obtenidas se suman a la media de la prueba general y se multiplican por el parámetro de ponderación (entre un 10 y un 20%) aplicado a las materias, de acuerdo con el grado de relación que tengan con la rama de conocimiento a la que estén adscritas y a la prioridad que cada Universidad haya otorgado a las asignaturas de modalidad al comienzo del curso. Las puntuaciones de este grupo tienen una validez de dos años. 

La novedad del actual sistema radica en que, en el mejor de los casos y una vez sumadas las notas de las dos fases, un alumno puede obtener hasta 14 puntos en la Selectividad, ya que a la nota general se pueden añadir hasta dos puntos por cada una de las dos asignaturas voluntarias ponderadas.

En cuanto a la relación entre la oferta y la demanda de plazas, el área de Ciencias de la Salud, especialmente Medicina, mantiene un fuerte desequilibrio (alrededor del 300% de demanda sobre oferta), mientras aparece más ajustado en Ciencias Sociales y Jurídicas (ligeramente superior al cien por cien). Las Enseñanzas Técnicas, salvo excepciones, ya no sufren la presión del alumnado y la demanda apenas supera el 90% de la oferta. Humanidades es el área menos solicitada con menos del 70% de demanda sobre oferta.

Reclamación y corrección


Los estudiantes que no estén conformes con la nota final tienen dos opciones, pueden pedir, en el plazo de tres días, una revisión de examen, mediante la pertinente reclamación, u optar por someter su ejercicio a una segunda corrección. En el primer caso, la nota inicial se mantiene o sube. El riesgo de la segunda corrección es mayor e incluso puede baja la nota.

En la reclamación no se vuelve a corregir el examen, sólo se comprueba de forma exhaustiva el proceso de calificación en orden a posibles errores de procedimiento. La segunda corrección la hará un profesor especialista distinto al que corrigió el examen la primera vez. En el caso de existir más de dos puntos de diferencia, será corregido por un tercer experto. La calificación final será la media aritmética de las dos o tres alcanzadas. El estudiante tendrá derecho a ver el examen corregido una vez finalizado en su totalidad el proceso de corrección y podrá reclamar en el plazo de diez días.

Cada año habrá dos convocatorias de la PAU y los estudiantes podrán presentarse a cuantas deseen, de forma sucesiva, para subir nota tanto en la fase general como en la específica.

miércoles, 1 de junio de 2011

BECAS DEL MEC PARA EL CURSO 2011/2012

http://tuformacionprofesional.com/blog

Ya puedes consultar el Real Decreto que regula los umbrales de renta y patrimonio familiar, así como las cuantías de las becas y ayudas al estudio del Ministerio de Educación (becas MEC) para los alumnos que cursen estudios oficiales de formación profesional en el curso 2011/2012.

La dirección del Boletín Oficial del Estado es la siguiente:

http://www.boe.es/boe/dias/2011/05/21/pdfs/BOE-A-2011-8850.pdf