viernes, 15 de abril de 2011

SISTEMA OPERATIVO LINUX

SISTEMA OPERATIVO LINUX

Introducción

En una era de cambios en el ambiente computacional, de una amplia oferta en sistemas operativos e interfaces gráficas y sobre todo, del costo que representa contar con un sistema operativo que interactúe con el software sin problemas, surge con fuerza inusitada: Linux.
LINUX es un sistema operativo, compatible Unix. (1)
(1) Unix, registrado oficialmente como (UNIX®) es un sistema operativo portable, multitarea y multiusuario; desarrollado, en principio, en 1969 por un grupo de empleados de los laboratorios Bell de ATT, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.

Dos características muy peculiares diferencian a Linux del resto de los sistemas que podemos encontrar en el mercado:
1).- Es libre. esto significa que no tenemos que pagar ningún tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo.
2).- El sistema viene acompañado del código fuente. El sistema lo forman el núcleo del sistema (kernel) mas un gran numero de programas / librerías que hacen posible su utilización.

LINUX se distribuye bajo la GNU Public License: Ingles , por lo tanto, el código fuente tiene que estar siempre accesible.
El sistema ha sido diseñado y programado por multitud de programadores alrededor del mundo. El núcleo del sistema sigue en continuo desarrollo bajo la coordinación de Linus Torvalds, la persona de la que partió la idea de este proyecto, a principios de la década de los noventa.
Día a día, más y más programas / aplicaciones están disponibles para este sistema, y la calidad de los mismos aumenta de versión a versión. La gran mayoría de estos programas vienen acompañados del código fuente y se distribuyen gratuitamente bajo los términos de licencia de la GNU Public License.
En los últimos tiempos, ciertas casas de software comercial han empezado a distribuir sus productos para Linux y la presencia del mismo en empresas aumenta rápidamente por la excelente relación calidad – precio que se consigue con Linux.
Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-, Pentium, Pentium Pro, Pentium II, Amiga y Atari, también existen versiones para su utilización en otras plataformas, como Alpha, ARM, MIPS, PowerPC y SPARC.

Reseña

Historia del Linux: Linux fue creado originalmente por Linus Torvald en la Universidad de Helsinki en Finlandia, siendo él estudiante de informática. Pero ha continuado su desarrollo con la ayuda de muchos otros programadores a través de Internet.
Linux originalmente inició el desarrollo del núcleo como su proyecto favorito, inspirado por su interés en Minix, un pequeño sistema Unix desarrollado por Andy Tannenbaum. El se propuso crear lo que en sus propias palabras sería un "mejor Minix que el mismísimo Minix".
El 5 de octubre de 1991, Linux anunció su primera versión "oficial" de Linux, versión 0.02. Desde entonces , muchos programadores han respondido a su llamada, y han ayudado a construir Linux como el sistema operativo completamente funcional que es hoy.

¿QUÉ ES LINUX?

Linux es un sistema operativo diseñado por cientos de programadores de todo el planeta, aunque el principal responsable del proyecto es Linus Tovalds. Su objetivo inicial fue propulsar el software de libre distribución junto con su código fuente para que pueda ser modificado por cualquier persona, dando rienda suelta a la creatividad.
El hecho de que el sistema operativo incluya su propio código fuente expande enormemente las posibilidades de este sistema. Este método también es aplicado en numerosas ocasiones a los programas que corren en el sistema, lo que hace que podamos encontrar muchísimos programas útiles totalmente gratuitos y con su código fuente. Y la cuestión es que, señoras y señores, Linux es un sistema operativo totalmente gratuito.
Las funciones principales de este magnífico sistema operativo son:
• Sistema multitarea: en Linux es posible ejecutar varios programas a la vez sin necesidad de tener que parar la ejecución de cada aplicación.
• Sistema multiusuario: Varios usuarios pueden acceder a las aplicaciones y recursos del sistema Linux al mismo tiempo. Y, por supuesto, cada uno de ellos puede ejecutar varios programas a la vez (multitarea).
• Shells programables: un shell conecta las órdenes de un usuario con el Kernel de Linux (el núcleo del sistema), y al ser programables se puede modificar para adaptarlo a las necesidades del operador. Por ejemplo, es muy útil para realizar procesos en segundo plano.
• Independencia de dispositivos: Linux admite cualquier tipo de dispositivo (módems, impresoras) gracias a que cada vez instalado uno nuevo, se añade al Kernel el enlace o controlador necesario con el dispositivo, haciendo que el Kernel y el enlace se fusionen. Linux posee una gran adaptabilidad y no se encuentra limitado como otros sistemas operativos.
• Comunicaciones: Linux es el sistema más flexible para poder conectarse a cualquier ordenador del mundo. Internet se creó y desarrolló dentro del mundo de Unix, y por lo tanto, Linux tiene las mayores capacidades para navegar, ya que Unix y Linux son sistemas prácticamente idénticos. Con linux se podrá montar un servidor en su propia casa sin tener que pagar las enormes cantidades de dinero que piden otros sistemas.

Linux no sacrifica en ningún momento la creatividad, tal y como lo hacen algunas compañías informáticas. Linux es una ventana abierta por la que es posible huir hacia un mundo donde la verdadera informática puede ser disfrutada sin límites ni monopolios.
Linux es distribuido mediante una serie de colocaciones como RedHat, Slackware, Debían ... las cuales se diferencian por su método de instalación y por los paquetes (software) que viene incluido. Es posible que se encuentre a la venta versiones de Linux; todo el software de Linux esta regido por la licencia de GNU, con la cual cualquier persona puede modificar un programa y venderlo según el desee, con la condición que la persona que compra ese producto puede realizar la misma acción o simplemente hacer copias para todos aquellos que lo quieran sin tener que pagar más Esta licencia es la garantía que afirma la absoluta libertad de este sistema operativo. Si no desea pagar ese valor simbólico, puede descargárselo de Internet totalmente gratis.

Características de Linux

• multitarea: varios programas (procesos) ejecutándose al mismo tiempo.
• multiusuario: varios usuarios en la misma máquina al mismo tiempo (y sin licencias para todos).
• multiplataforma: corre en muchas CPUs distintas, no sólo Intel.
• funciona en modo protegido 386.
• tiene protección de la memoria entre procesos, de manera que uno de ellos no pueda colgar el sistema.
• carga de ejecutables por demanda: Linux sólo lee de disco aquellas partes de un programa que están siendo usadas actualmente.
• política de copia en escritura para compartir páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria.
• memoria virtual usando paginación (sin intercambio de procesos completos) a disco: una partición o un archivo en el sistema de archivos, o ambos, con la posibilidad de añadir más áreas de intercambio sobre la marcha (se sigue denominando intercambio, es en realidad un intercambio de páginas).
Un total de 16 zonas de intercambio de 128Mb de tamaño máximo pueden ser usadas en un momento dado con un límite teórico de 2Gb para intercambio.
• la memoria se gestiona como un recurso unificado para los programas de usuario y para el caché de disco, de tal forma que toda la memoria libre puede ser usada para caché y éste puede a su vez ser reducido cuando se ejecuten grandes programas.
• librerías compartidas de carga dinámica (DLL's) y librerías estáticas.
• se realizan volcados de estado (core dumps) para posibilitar los análisis post-mortem, permitiendo el uso de depuradores sobre los programas no sólo en ejecución sino también tras abortar éstos por cualquier motivo.
• casi totalmente compatible con POSIX, System V y BSD a nivel fuente.
• mediante un módulo de emulación de iBCS2, casi completamente compatible con SCO, SVR3 y SVR4 a nivel binario.
• todo el código fuente está disponible, incluyendo el núcleo completo y todos los drivers, las herramientas de desarrollo y todos los programas de usuario; además todo ello se puede distribuir libremente.
Hay algunos programas comerciales que están siendo ofrecidos para Linux actualmente sin código fuente, pero todo lo que ha sido gratuito lo sigue siendo.
• control de tareas POSIX.
• pseudo-terminales (pty's).
• emulación de 387 en el núcleo, de tal forma que los programas no tengan que hacer su propia emulación matemática.
Cualquier máquina que ejecute Linux parecerá dotada de coprocesador matemático. Si un ordenador ya tiene una FPU (unidad de coma flotante), será usada en lugar de la emulación, pudiendo incluso compilar el propio kernel sin la emulación matemática y conseguir un pequeño ahorro de memoria.
• soporte para muchos teclados nacionales o adaptados y es bastante fácil añadir nuevos dinámicamente.
• consolas virtuales múltiples: varias sesiones de login a través de la consola entre las que se puede cambiar con las combinaciones adecuadas de teclas (totalmente independiente del hardware de video) Se crean dinámicamente y puede haber hasta 64.
• soporte para varios sistemas de archivo comunes, incluyendo minix-1, Xenix y todos los sistemas de archivo típicos de System V, y tiene un avanzado sistema de archivos propio con una capacidad de hasta 4 Tb y nombres de archivos de hasta 255 caracteres de longitud.
• acceso transparente a particiones MS-DOS (o a particiones OS/2 FAT) mediante un sistema de archivos especial: no se necesita ningún comando especial para usar la partición MS-DOS, parece un sistema de archivos normal de Unix (excepto por algunas restricciones en los nombres de archivo y permisos) Las particiones comprimidas de MS-DOS 6 no son accesibles en la actualidad, y no se espera que lo sean en el futuro. El soporte para VFAT (WNT, Windows 95) ha sido añadido al núcleo de desarrollo y estará en la próxima versión estable.
• un sistema de archivos especial llamado UMSDOS que permite que Linux sea instalado en un sistema de archivos DOS.
• soporte en sólo lectura de HPFS-2 del OS/2 2.1
• sistema de archivos de CD-ROM que lee todos los formatos estándar de CD -ROM.
• TCP/ IP, incluyendo ftp, telnet, NFS, etc.
• Appletalk disponible en el actual núcleo de desarrollo.
• software cliente y servidor Netware disponible en los núcleos de desarrollo.

Versiones

El desarrollo inicial Linux ya aprovechaba las características de conmutación de tareas en modo protegido del 386, y se escribió todo en ensamblador. Linus nunca anunció la versión 0.01 de Linux (agosto 1991), esta versión no era ni siquiera ejecutable, solamente incluía los principios del núcleo del sistema, estaba escrita en lenguaje ensamblador y asumía que uno tenía acceso a un sistema Minix para su compilación.
El 5 de octubre de 1991, Linus anunció la primera versión "Oficial" de Linux, - versión 0.02. Con esta versión Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los términos soporte, documentación, distribución.
Después de la versión 0.03, Linus saltó en la numeración hasta la 0.10, más y más programadores a lo largo y ancho de internet empezaron a trabajar en el proyecto y después de sucesivas revisiones, Linus incrementó el número de versión hasta la 0.95 (Marzo 1992). Mas de un año después (diciembre 1993) el núcleo del sistema estaba en la versión 0.99 y la versión 1.0 no llegó hasta el 14 de marzo de 1994.
La versión actual del núcleo es la 2.2 y sigue avanzando día a día con la meta de perfeccionar y mejorar el sistema.
La última versión estable es la versión 2.2, que soporta muchos más periféricos, desde procesadores hasta joysticks, sintonizadores de televisión, CD Roms no ATAPI y reconoce buena cantidad de tarjetas de sonido.
Incluye también soporte para tipos de archivos para Macintosh HFS, Unix UFS y en modo de lectura, HPFS de OS/2 y NTFS, de NT.

Otras Versiones:

Linux 2.0
Linux 2.2
Linux 2.3

Comparación

Se señalan las diferencias de Linux con el D.O.S y no con otro Sistema Operativo porque la mayoría provienen del DOS.
• No existe el concepto de unidad de disco. Todas las unidades en Linux se “montan” como si fueran un subdirectorio más.
• No existe el concepto de extensión del nombre de un fichero. Los ficheros pueden tener nombres de hasta 256 caracteres. Los puntos están permitidos en el nombre de un fichero. Así, un fichero se podrá llamar:
DOSEMU-HOWTO
Español.tar.gz
• Los subdirectorios no se separan con el carácter '\', como en DOS, sino con el carácter '/'. Ejemplo:
/usr/src/linux-1.2.13/Makefile
• Existe diferencia entre mayúsculas y minúsculas. Por ejemplo, no es lo mismo “dir” que “DIR” que “Dir”...
• Adiós a los atributos de los ficheros, tal y como los conoce el DOS. Cada fichero tendrá ahora 10 'atributos'.
• Entre un comando y sus parámetros deberemos dejar obligatoriamente un espacio en blanco. Por ejemplo 'cd..'
no funcionará mientras que 'cd ..'.
• IMPORTANTE: Un sistema Linux NUNCA se puede apagar por las buenas. Antes deberemos advertir al S.O. que vamos a apagarlo (o reiniciarlo)
La razón de que esto deba ser así es para que el sistema tenga tiempo de escribir en disco todos los datos que tuviera pendientes de cifrar, salir ordenadamente de todas las aplicaciones que tuviera arrancadas y desmontar todas las unidades que tuviera montadas.

Existen muchas otras diferencias (gestión de memoria plana, ...), pero las mencionadas son las que más pueden influir en la forma de trabajar, al menos en un principio.

¿Qué es el kernel?

El kernel o núcleo de linux se podría definir como el corazón de este sistema operativo. Es el encargado de que el software y el hardware del ordenador puedan trabajar juntos.
Las funciones mas importantes del mismo, aunque no las únicas, son:
• Administración de la memoria, para todos los programas en ejecución.
• Administración del tiempo de procesador, que estos programas en ejecución utilizan.
• Es el encargado de que podamos acceder a los periféricos/elementos de nuestro ordenador de una manera cómoda.
Existen dos versiones del Linux kernel:
1).- Versión de producción: La versión de producción, es la versión estable hasta el momento. Esta versión es el resultado final de las versiones de desarrollo o experimentales.
Cuando el equipo de desarrollo del kernel experimental, decide que ha conseguido un kernel estable y con la suficiente calidad, se lanza una nueva versión de producción o estable. Esta versión es la que se debería utilizar para un uso normal del sistema, ya que son las versiones consideradas mas estables y libres de fallos en el momento de su lanzamiento.
2).- Versión de desarrollo: Esta versión es experimental y es la que utilizan los desarrolladores para programar, comprobar y verificar nuevas características, correcciones, etc. Estos núcleos suelen ser inestables y no se deberían usar, a no ser que se conozca en profundidad el tema.

Como interpretar los números de las versiones:

Las versiones del kernel se numeran con 3 números, de la siguiente forma: XX.YY.ZZ
XX: Indica la serie principal del kernel. Hasta el momento solo existen la 1 y
2. Este número cambia cuando la manera de funcionamiento del kernel ha sufrido un cambio muy importante.
YY: Indica si la versión es de desarrollo o de producción. Un número impar, significa que es de desarrollo, uno par, que es de producción.
ZZ: Indica nuevas versiones dentro de una versión, en las que lo único que se ha modificado, son fallos de programación /bugs.

Extraído de: Monografias.com
El Centro de Tesis, Documentos, Publicaciones y Recursos Educativos más amplio de la Red.

viernes, 1 de abril de 2011

Encabezados y títulos de sección

Qué significa Encabezado - Información y significado de Encabezado

Definiciones de Encabezado
1. En páginas web, grupo de etiquetas html que corresponden a la parte superior de la página y que determinan el título de la misma, los caracteres que contiene, su descripción, etc.

2. En E-mails, el encabezado es la parte del correo electrónico donde se detalla el tipo de contenido que posee el email (texto plano, texto enriquecido, etc), los destinatarios del mismo, quién lo envía, entre otros datos. Las aplicaciones para ver correo electrónico como Outlook suelen modelar estos datos para hacerlos estéticamente más adecuados para los usuarios. También suelen ocultar datos de poca importancia que llegan en los encabezados.

3. En posts de grupos de noticias, el encabezado es la parte donde se detalla los grupos a los cuales pertenece, su título, fecha y hora, detalles de su contenido, quién la envía, etc.

¿Qué son los encabezados y qué opciones tengo para verlos?

Los encabezados contienen la información básica sobre quién envió el mensaje y quién lo recibió. Se puede escoger entre "Encabezado reducido" y "Encabezado estándar" haciendo clic en el enlace en la sección del encabezado.
El "Encabezado reducido" ocupa menos espacio. Los encabezados resumidos incluyen los campos De, Para, y Asunto del mensaje. En cambio, el "Encabezado estándar" incluye esa información básica más la fecha y hora en que fue recibido el mensaje.
Los encabezados completos incluyen un registro de la ruta de entrega del mensaje. Este encabezado contiene un montón de información que probablemente nunca resulte de interés consultar, aunque cada mensaje dispone de él. Si queremos visualizar el encabezado completo, cliclearemos en el enlace en la sección del encabezado encima de un mensaje— donde aparece "Encabezado reducido" o "Encabezado estándar." Seleccionaremos "Encabezado completo" en el menú desplegable para ver cómo es. Contiene tanta información que se abrirá en una ventana nueva.

Los encabezados de las páginas webs - Explicación breve...

Decir encabezado, es como decir la parte de la Web que nos informa de que trata esa Página.
En un encabezado bien hecho, se debería leer siempre el título de la página, y en algunos casos, se debería leer una pequeña descripción del sitio. El texto de un encabezado, tiene que ser visible, para así informar a los visitantes que están viendo o de que se trata lo que están leyendo o visualizando.
Hay diferentes tipos de encabezados, y cada uno debe presentarse con colores de libre elección. Debe prestarse atención a la combinación de colores, o bien, si es de un color, que quede bien estéticamente con el resto de la Web
Hay diferentes tamaños de encabezados; están los pequeños, los medianos, los grandes y ya los gigantescos, que quedan bien en un tipo determinado de Portales Webs.
Los pequeños suelen ser de la anchura predeterminada de la Web por entre 50px y 120px de alto.
Los medianos suelen ser ya de entre la anchura predeterminada de la web por entre 120px y 200px de alto.
Los grandes son de entre 200px y 500px de alto y la anchura igual que en los demás.
Los gigantes estarían de 500px para arriba de alto, y respetando la anchura predeterminada.

¿Qué es la NANOTECNOLOGÍA?

Física de Hoy

Nanotecnología
Para conocer qué es la Nanotecnología, empecemos por aclarar el significado del prefijo:
"nano" - éste hace referencia a la milmillonésima parte de un metro. Un átomo es la quinta parte de esa medida, es decir, cinco átomos puestos en línea suman un nanometro.
Pues bien, todos los materiales, dispositivos, instrumental, etc., que entren en esa escala, desde 5 a 50 ó 100 átomos es lo que se conoce con el nombre de Nanotecnología.

¿Qué es exactamente la nano tecnología y cuál su momento de nacimiento?

Empezando por el final, yo me remitiría a una conferencia impartida en 1959 por uno de los grandes físicos del siglo pasado, el maravilloso teórico y divulgador Richard Feynman. Por aquél entonces, Feynman ya predijo que había un montón de espacio al fondo (el título original de la conferencia fue “There’s plenty of room at the bottom”) y auguraba una gran cantidad de nuevos descubrimientos, si se pudiera fabricar materiales de dimensiones atómicas o moleculares. Hubo que esperar varios años para que el avance en las técnicas experimentales, culminado en los años 80 con la aparición de la Microscopía Túnel de Barrido (STM) o de Fuerza Atómica (AFM), hiciera posible primero observar los materiales a escala atómica y, después, manipular átomos individuales.
Ahora, con respecto a qué es la Nanotecnología, empecemos por aclarar el significado del prefijo “nano”: éste hace referencia a la milmillonésima parte de un metro. Para hacernos idea de a qué escala nos referimos, pensemos que un átomo es la quinta parte de esa medida, es decir, cinco átomos puestos en línea suman un nanometro. Bien, pues todos los materiales, dispositivos, instrumental, etc., que entren en esa escala, desde 5 a 50 ó 100 átomos es lo que llamamos Nanotecnología.

¿Y algo de ese tamaño merece el "nombre" de material? ¿no es puro humo?...
Sin dudas, siguen siendo materiales y tienen su comportamiento específico... sólo que puede ser muy sorprendente. A esa escala las propiedades de los materiales cambian. Desde el color, que viene determinado por unas longitudes de onda demasiado grandes para estos tamaños, hasta propiedades como la conductividad, magnetismo, etc. que, a esa escala, pueden comportarse de modo muy diferente al que estamos acostumbrados a observar en el mundo macroscópico. Esto, en cierto modo, podría parecer un problema: imaginemos que partes de un material, con unas propiedades conocidas que, sin embargo, cambian completamente a escala nanométrica. ¡Pues es un despiste! Un material cualquiera, a escala óptica, tiene, pongamos cuatrillones de átomos que, juntos, interaccionan y dan como resultado unas determinadas cualidades del material. Cuando esa cifra la reducimos a unos pocos cientos, el salto afecta a la esencia misma del material. En definitiva, las propiedades dependen del tamaño.

¿Qué significa poder intervenir a ese tamaño, usando ese instrumental al que se ha hecho referencia al principio?
Algo fundamental es que esta tecnología abre la posibilidad de creación de materiales a medida, a través de la manipulación de sus átomos. Y cuando digo manipulación lo digo en sentido estricto: conociendo las propiedades de los átomos, estos se pueden organizar de una determinada manera, uno a uno, como un LEGO, lo que da como resultado materiales de condiciones predeterminadas, que además no tienen por qué existir en la naturaleza. No obstante, a un nivel muy práctico, todavía, salvo excepciones, no se ha introducido la nanotecnología dentro de las fábricas, en una cadena de producción industrial, aunque, como digo, hay ya algunos resultados que sí resultan relativamente asequibles.

¿Cómo por ejemplo?
Pues, por ejemplo, en EEUU, para las luces de los estadios se utiliza una aplicación muy específica de esta tecnología, lo que se denomina tubos de carbono de tamaño nanométrico o nanotubos. En Japón, los paneles luminosos también se fabrican ya a partir de materiales semiconductores con nanoestructuras. Como sabemos, las bombillas pierden una cantidad de energía enorme en forma de calor (alrededor del 80%, en una bombilla corriente y algo menos en las de tubo). La aplicación de esta tecnología vendría a representar un ahorro muy importante en ese aspecto. También se está investigando para incorporar la misma tecnología a las pantallas planas de los ordenadores o televisores, por su buena capacidad como conductores y emisores de electrones, y un largo etcétera.

¿Cuáles son las dificultades para comercializar estos dispositivos?
En el momento actual, este campo se halla en un estadio que podríamos denominar pre-industrial, a nivel de demostración y diseño de prototipos.
EEUU tomó la iniciativa en este campo durante la última etapa del gobierno de Clinton, aprobando un presupuesto realmente importante para un programa denominado Iniciativa Nacional sobre Nanotecnología, cuyos resultados ya están apareciendo.
También la Unión Europea ha incluido la Nanotecnología como una de las áreas clave en su Sexto Programa Marco, iniciado recientemente y que marca las prioridades en investigación de los países europeos para los próximos años. Y evidentemente, también Japón destina importantes recursos a estos estudios. Todos estos saben que estas tecnologías tendrán una aplicación práctica dentro de pocos años, y que estarán presentes en todos los campos de las ciencias. A nivel español, hay bastantes grupos de investigación activos en estos temas, aunque todavía no mucha presencia de las empresas. Quizá no hayan percibido aún que esto no es ciencia-ficción. Esto es absolutamente real.
Es cierto que existen condicionantes de tipo social, cultural o económico que, al final, determinan el éxito o fracaso de una nueva tecnología. Sin embargo, las posibilidades que actualmente se adivinan para este tipo de materiales hacen pensar que serán realmente imparables. Se ha hablado ya de la Tercera Revolución Industrial.

¿Es una tecnología muy cara?
Desde el punto de vista de la investigación yo diría que no es de las más caras, ni mucho menos. En lo que respecta a la fabricación industrial, falta todavía bastante para llegar al nivel de rentabilidad, pero se apunta a una producción realmente masiva y con unos costos de producción muy bajos. Este aspecto económico es algo muy distintivo en la Nanotecnología: por la poca energía que consumen los dispositivos derivados y por la facilidad para situarlos en cualquier punto, se espera que acaben estando presentes en todos los objetos y materiales que nos rodean cotidianamente. Los análisis indican que estas tecnologías pueden llegar a revolucionar la economía, los sistemas de producción y los niveles de vida en un futuro inmediato.

Creo que antes mencionaste algunas aplicaciones: sustituir iluminación a gran escala, en las pantallas de los ordenadores, ¿podrías citar más ejemplos?...
Todo lo que uno pueda imaginar. Desde dispositivos nanométricos instalados en la ropa, que, por ejemplo, detecten cambios de temperatura y, entonces, las cualidades del tejido se adapten, o detecten lluvia e igual, pase de comportarse de modo impermeable a permeable o cambien de color en función de la luz..... Otro ejemplo práctico, que es real y que ya se ha experimentado, es un plástico que se auto-regenera cuando se rompe. Su composición nanométrica está formada por esferitas de dos tipos: unas que contienen en su interior una resina y otras que contienen el catalizador correspondiente. Pues bien, cuando se quiebra el plástico también se quiebran estas esferitas cuyos contenidos se mezclan igual que un pegamento epoxy. Piensa en la fatiga de los materiales que se utilizan en la aviación, por ejemplo, y encontrarás una aplicación bastante evidente....
Otro ejemplo: dentro de un medicamento, un dispositivo que dosifique su administración controlando que el vertido se realice en un lugar localizado dentro del sistema circulatorio. También en el caso de la Medicina, se espera poder producir sistemas que reparen lesiones (como tumores cancerosos) en los puntos específicos afectados del organismo, o sensores que detecten con gran sensibilidad y precisión la existencia de determinadas moléculas. Todo esto involucra a las ciencias Química y Bioquímica, Biología Molecular y Física y a las tecnologías de la Ingeniería Electrónica y de Proteínas. No obstante, el ejemplo más significativo está increíblemente extendido ya hoy en día: las cabezas lectoras de los discos duros actuales, que tienen un elemento sensor de un espesor nanométrico (de unas pocas capas atómicas). Esta tecnología ha permitido incrementar enormemente la densidad de almacenamiento de datos. En nuestro departamento, por ejemplo, trabajamos precisamente en esta línea, entre otras: aumentar la capacidad de los discos duros, ordenadores y otros dispositivos en un factor entre 100 y 1000 veces.

¿Con qué instalaciones se cuenta para investigar en estas tecnologías?
Bueno, la UAM tiene una infraestructura razonablemente buena a nivel europeo. A nivel español estamos en el pequeño grupo de las universidades con mejor dotación. Este campus se construyó a principios de los años 70, con un modelo inspirado en la imagen de las principales universidades europeas y norteamericanas, con un profesorado muy joven, y ha tenido siempre una fuerte tradición investigadora. En cuanto a instalaciones específicas, son muchas para citarlas aquí. Hay muchos grupos llevando a cabo investigación en diferentes campos, y cada uno de ellos tiene su instrumental propio, incluyendo microscopios de efecto túnel, difractómetros, magnetómetros, criostatos para muy bajas temperaturas, etc. Pero también hay que resaltar que la propia Universidad posee varios equipos para uso común: un centro de computación científica, microscopios electrónicos, sistemas de nanolitografía e incluso un acelerador de iones de los más modernos del mundo, en la actualidad.

Juan J. De Miguel
Profesor Titular en el Departamento de Física de la Materia Condensada.
Imparte la asignatura de Física II en Ingeniería Informática y los cursos de doctorado de Sistemas de Baja Dimensionalidad y Nanoestructuras y Auto-ensamblaje y Auto-organización.