Nanotecnología, cuestión de medida.

Por Cesare Nàvy 

Me disponía a escribir este artículo cuando una última duda me ha hecho volver a levantarme. He buscado la habitual cinta métrica olvidada en la caja de herramientas de mi casa y he medido las dimensiones de la CPU desde la que escribo. Les advierto que las primeras conclusiones, similares a las que tendrán ustedes si navegan desde un ordenador convencional, no han sido muy alentadoras: 18x42x48 centímetros. Digo esto porque el concepto de la nanotecnología, tan en auge estos últimos años y centro de las esperanzas de científicos de las más diversas áreas, se puede definir como el "estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nanoescala (nanometros)" y aparentemente la informática estaría muy lejos de la nanotecnología. Recordemos, como aparece en anteriores mensajes del blog, que 1 nanometro es igual a 10E-9 metros; más gráficamente, 1 pelo humano tiene el grosor aproximado de 100.000 nm. Entonces, ¿cómo estamos de lejos? ¿Qué tiene la nanotecnología de realidad en los últimos años? El mismo ejemplo del ordenador (ya introducido en este blog aquí) y visto premeditadamente de forma extraña al medir la torre de la CPU en la introducción, nos servirá para responder esta cuestión y comprobar la evolución de la informática en cuanto a tamaño.

Un procesador es la parte fundamental de un ordenador, así que nos centraremos en su estudio. En 1971 con la aparición del primer microprocesador (Intel 4004) se pudo insertar un procesador en un único chip, y desde entonces la mejora continua de potencia ha venido acompañada de una constante reducción de tamaño de los componentes existentes para poder integrar más elementos en la misma región (en la informática, estos componentes que se reproducen actualmente por billones en los chips son los transistores). El Intel 2004, poseía 2300 transistores y tenía un área de 10 mm2. ). Dando un salto en el tiempo de aproximadamente 30 años, encontramos los más recientes procesadores Pentium 4 de 112 mm2, con 125 millones de transistores, o el popular Core 2 Duo, con un área de 90 mm2 y 152 millones de transistores.

La primera conclusión es que para que esto haya sido posible el tamaño de los transistores ha tenido que disminuir de forma muy significativa. Las implementaciones del Pentium 4 trabajan con una tecnología de 90 nm (diámetro de un transistor), y en el Core 2 Duo con una tecnología de 65 nm (tamaños inferiores al de, por ejemplo, el virus Influenza como se aprecia en la imagen). Con los métodos actuales parece viable alcanzar una tecnología de hasta 15-20 nm. Este ejemplo pone de manifiesto la evolución de la informática, en la que ya se trabaja en escala nanométrica en los procesadores que usamos habitualmente (incluido éste en el que escribo, aunque esté "rodeado" de otros componentes), augura que la reducción de la información no se detiene y que la nanotecnología está ya en el mundo en que vivimos.

                                              Virus influenza vs procesador

El uso de nuevas moléculas, que están en experimentación y no se usan actualmente en los ordenadores de uso personal, ya se está convirtiendo en el foco de muchos proyectos relacionados con la nanotecnología. Por ello y para terminar con el torrente de medidas sobre ordenadores, destacar uno de estos proyectos que pretende realizar un ordenador (autónomo e independiente) del tamaño de un grano de arena en Escocia

De aquí se desprenden 2 utilidades: por una parte el uso en arterias u otras regiones que requieren chips de tamaño muy reducido, y por otra permitir que se construyan objetos básicos de potencia limitada que puedan interconectarse en redes, por millones, para desarrollar una tarea de forma mucho más rápida. Si la expansión de la nanotecnología se mantiene al nivel previsto y su base teórica así parece corroborarlo, conseguirá una potencia de procesamiento sin comparación con cualquier ordenador actual, por rápido y complejo que éste parezca.

Be Sociable, Share!

7 Comentarios to “Nanotecnología, cuestión de medida.”

  1. CHRISTIAN JACQ on 2007-01-25 1.48 pm

    Hasta hace bien poco veíamos como nuestros ordenadores se quedaban “anticuados” cada 18 meses, veíamos cómo surgían nuevas versiones que superaban en prestaciones a nuestros equipos. En los últimos años hemos visto como este ritmo se ha ido frenando, se prevé que para el 2010 (http://www.portalciencia.net/nanotecno/nanoinfor.html) el tamaño de los chips llegará a su límite, no se podrán empaquetar más transistores. Por tanto, para continuar avanzando en la rama de la informática se deberá entrar en el nivel atómico necesariamente.
    Una de las moléculas “candidatas” para estos ordenadores moleculares es el rotaxano (http://www.tecnociencia.org/n/123/ordenadores-moleculares/), molécula sintética de la que ya se ha hablado anteriormente en este blog.
    De todas formas, en una entrevista (http://www.ti.profes.net/archivo2.asp?id_contenido=26092) realizada a Víctor Metrina (doctor en matemáticas), considera que los ordenadores moleculares no son del todo factibles y apuesta más bien por híbridos moleculares y electrónicos.

  2. Cesare Navy on 2007-01-27 7.30 pm

    Bueno, solo quería matizar tu comentario, ya que apuntas que ese crecimiento que en general respondía a los 18 meses indicados por la Ley De Moore ya no se cumple, y de momento no es cierto. La ley de Moore, en rendimiento, se mantiene aun vigente aunque no lo parezca por aspectos algo confusos que hay en la informática actual. Por ejemplo, no tenemos mucha más memoria RAM, pero si \

  3. Cesare Navy on 2007-01-27 7.32 pm

    Bueno, solo quería matizar tu comentario, ya que apuntas que ese crecimiento que en general respondía a los 18 meses indicados por la Ley De Moore ya no se cumple, y de momento no es cierto. La ley de Moore, en rendimiento, se mantiene aun vigente aunque no lo parezca por aspectos algo confusos que hay en la informática actual. Por ejemplo, no tenemos mucha más memoria RAM, pero si “hacemos una gestión mucho mejor de ella” con varios niveles previos de memoria caché (más información aquí: http://www.monografias.com/trabajos37/memoria-cache/memoria-cache2.shtml ). No hacemos muchísimas más instrucciones que antes, pero hacemos instrucciones “más útiles”, porque seguimos mejorando en los predictores de saltos que incluyen los procesadores. No tenemos un procesador a 4GHz como parecía evolucionar antes el mundo de los procesadores (inviable por el consumo excesivo), pero tenemos 2 procesadores de 2 GHz trabajando en paralelo en el Core Duo (y va a más, con el Quad Core, más información aquí: http://es.theinquirer.net/2006/11/14/post_8.html ).
    Un buen resumen de estos y otros aspectos que están llevando a que aun se cumpla la Ley de Moore respecto al rendimiento de los procesadores, aquí: http://www.macuarium.com/cms/macu/especiales/los-chips-prodigiosos.html

    En cualquier caso, no se puede ocultar el límite de esta tecnología que indicas tú hacia 2010, y que yo especificaba en las tecnologías de 15-20 nm en los transistores. A partir de aquí, como dices, veremos en que desemboca el aun algo misterioso mundo de los ordenadores moleculares (por no existir aun implementaciones). Muy interesante la entrevista.

  4. Joaquín Escayo Menéndez on 2007-01-31 7.12 pm

    Bueno, primero resaltar un pequeño matiz, me ha llamado la atención las medidas de tu procesador ya que realmente los procesadores son mucho más pequeños de lo que mencionas, lo que pasa es que constan de un recubrimiento que los hace parecer más grandes. Puedes ver una imagen de un procesador AMD Venice aquí fabricado en 90nm, donde se aprecia claramente la diferencia, solo la parte central es el procesador, el resto es solo una placa con los contactos necesarios para comunicarse con la placa base, y la chapa superior se utiliza para no dañar el núcleo con la instalación del disipador.

    No hay que olvidar que no solo la CPU de nuestro ordenador utiliza tecnología nanométrica. La GPU o unidad de procesamiento gráfico también se produce a escala nanométrica, y pese a ser un elemento bastante nuevo (la GeForce 256 fue la primera GPU y data de 1999) ha hecho grandes avances en la materia, hoy en día se comienza a fabricar en 65nm, aunq lo más usual es usar 80nm como es el caso de la nueva R600 de AMD/ATI

    Por otra parte HP espera poder trabajar en 35nm para el año 2011-2012, según declaraciones de Stan Williams.

  5. anonimo on 2007-04-29 8.22 pm

    tiene q haber mas imformacion de lo que piden en la pagina

  6. lalala on 2007-04-29 8.32 pm

    tiene que haber mas imformacion de lo que piden haci pueden hacer el trabajooooooooooooooooooooooooooooooooooooooooooooooooooooo y si no nadie van a entrar a su paginaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa

  7. lalala on 2007-04-29 8.32 pm

    Nanotecnología, cuestión de medida.
    CHRISTIAN JACQ dice:

    2007-01-25 a las 1.48 pm
    Hasta hace bien poco veíamos como nuestros ordenadores se quedaban "anticuados" cada 18 meses, veíamos cómo surgían nuevas versiones que superaban en prestaciones a nuestros equipos. En los últimos años hemos visto como este ritmo se ha ido frenando, se prevé que para el 2010 (http://www.portalciencia.net/nanotecno/nanoinfor.html) el tamaño de los chips llegará a su límite, no se podrán empaquetar más transistores. Por tanto, para continuar avanzando en la rama de la informática se deberá entrar en el nivel atómico necesariamente.
    Una de las moléculas "candidatas" para estos ordenadores moleculares es el rotaxano (http://www.tecnociencia.org/n/123/ordenadores-moleculares/), molécula sintética de la que ya se ha hablado anteriormente en este blog.
    De todas formas, en una entrevista (http://www.ti.profes.net/archivo2.asp?id_contenido=26092) realizada a Víctor Metrina (doctor en matemáticas), considera que los ordenadores moleculares no son del todo factibles y apuesta más bien por híbridos moleculares y electrónicos.

    Cesare Navy dice:

    2007-01-27 a las 7.30 pm
    Bueno, solo quería matizar tu comentario, ya que apuntas que ese crecimiento que en general respondía a los 18 meses indicados por la Ley De Moore ya no se cumple, y de momento no es cierto. La ley de Moore, en rendimiento, se mantiene aun vigente aunque no lo parezca por aspectos algo confusos que hay en la informática actual. Por ejemplo, no tenemos mucha más memoria RAM, pero si

    Cesare Navy dice:

    2007-01-27 a las 7.32 pm
    Bueno, solo quería matizar tu comentario, ya que apuntas que ese crecimiento que en general respondía a los 18 meses indicados por la Ley De Moore ya no se cumple, y de momento no es cierto. La ley de Moore, en rendimiento, se mantiene aun vigente aunque no lo parezca por aspectos algo confusos que hay en la informática actual. Por ejemplo, no tenemos mucha más memoria RAM, pero si "hacemos una gestión mucho mejor de ella" con varios niveles previos de memoria caché (más información aquí: http://www.monografias.com/trabajos37/memoria-cache/memoria-cache2.shtml ). No hacemos muchísimas más instrucciones que antes, pero hacemos instrucciones "más útiles", porque seguimos mejorando en los predictores de saltos que incluyen los procesadores. No tenemos un procesador a 4GHz como parecía evolucionar antes el mundo de los procesadores (inviable por el consumo excesivo), pero tenemos 2 procesadores de 2 GHz trabajando en paralelo en el Core Duo (y va a más, con el Quad Core, más información aquí: http://es.theinquirer.net/2006/11/14/post_8.html ).
    Un buen resumen de estos y otros aspectos que están llevando a que aun se cumpla la Ley de Moore respecto al rendimiento de los procesadores, aquí: http://www.macuarium.com/cms/macu/especiales/los-chips-prodigiosos.html

    En cualquier caso, no se puede ocultar el límite de esta tecnología que indicas tú hacia 2010, y que yo especificaba en las tecnologías de 15-20 nm en los transistores. A partir de aquí, como dices, veremos en que desemboca el aun algo misterioso mundo de los ordenadores moleculares (por no existir aun implementaciones). Muy interesante la entrevista.

    Joaquín Escayo Menéndez dice:

    2007-01-31 a las 7.12 pm
    Bueno, primero resaltar un pequeño matiz, me ha llamado la atención las medidas de tu procesador ya que realmente los procesadores son mucho más pequeños de lo que mencionas, lo que pasa es que constan de un recubrimiento que los hace parecer más grandes. Puedes ver una imagen de un procesador AMD Venice aquí fabricado en 90nm, donde se aprecia claramente la diferencia, solo la parte central es el procesador, el resto es solo una placa con los contactos necesarios para comunicarse con la placa base, y la chapa superior se utiliza para no dañar el núcleo con la instalación del disipador.

    No hay que olvidar que no solo la CPU de nuestro ordenador utiliza tecnología nanométrica. La GPU o unidad de procesamiento gráfico también se produce a escala nanométrica, y pese a ser un elemento bastante nuevo (la GeForce 256 fue la primera GPU y data de 1999) ha hecho grandes avances en la materia, hoy en día se comienza a fabricar en 65nm, aunq lo más usual es usar 80nm como es el caso de la nueva R600 de AMD/ATI

    Por otra parte HP espera poder trabajar en 35nm para el año 2011-2012, según declaraciones de Stan Williams.

    anonimo dice:

    2007-04-29 a las 8.22 pm
    tiene q haber mas imformacion de lo que piden en la pagina

    lalala dice:

    2007-04-29 a las 8.32 pm
    tiene que haber mas imformacion de lo que piden haci pueden hacer el trabajooooooooooooooooooooooooooooooooooooooooooooooooooooo y si no nadie van a entrar a su

Deja una respuesta