Es una forma de escribir programación de computadora de forma clara, para ello utiliza únicamente tres estructuras: secuencial, selectiva e iterativa; siendo innecesario y no permitiéndose el uso de la instrucción o instrucciones de transferencia incondicional ( GOTO ).
Hoy en día las aplicaciones informáticas son mucho más ambiciosas que las necesidades de programación existentes en los años 60, principalmente debido a las aplicaciones gráficas, por lo que las técnicas de programación estructurada no son suficientes. Ello ha llevado al desarrollo de nuevas técnicas tales como la programación orientada a objetos y el desarrollo de entornos de programación que facilitan la programación de grandes aplicaciones.
Ventajas de la programación estructurada
Con la programación estructurada, elaborar programas de computador sigue siendo una labor que demanda esfuerzo, creatividad, habilidad y cuidado. Sin embargo, con este estilo podemos obtener las siguientes ventajas:
1. Los programas son más fáciles de entender, ya que pueden ser leído de forma secuencial, sin necesidad de hacer seguimiento a saltos de línea (GOTO) dentro de los bloques de código para entender la lógica.
2. La estructura del programa es clara puesto que las instrucciones están más ligadas o relacionadas entre sí.
3. Reducción del esfuerzo en las pruebas. El seguimiento de los fallos o errores del programa ("debugging") se facilita debido a la estructura más visible, por lo que los errores se pueden detectar y corregir más fácilmente.
4. Reducción de los costos de mantenimiento de los programas.
5. Programas más sencillos y más rápidos (ya que es más fácil su optimización).
6. Los bloques de código son auto explicativos, lo que facilita a la documentación.
7. Los GOTO se reservan para construir las instrucciones básicas. Aunque no se usan de forma directa, por estar prohibida su utilización, están incluidas implícitamente en las instrucciones de selección e iteración.
8. Un programa escrito de acuerdo a estos principios no solamente tendra una estructura sino tambien una excelente presentacion.
9. La programación estructurada ofrece estos beneficios,pero no se la debe considerar como una panacea ya que el desarrollo de programas es, principalmente, una tarea de dedicación, esfuerzo y creatividad.
Inconvenientes de la programación estructurada
El principal inconveniente de este método de programación, es que se obtiene un único bloque de programa, que cuando se hace demasiado grande puede resultar problemático su manejo, esto se resuelve empleando la programación modular, definiendo módulos interdependientes programados y compilados por separado. Un método un poco más sofisticado es la programación por capas, en la que los módulos tienen una estructura jerárquica muy definida y se denominan capas.
jueves, 11 de septiembre de 2008
Bus
ISA
ISA se creó como un sistema de 8 bits en el IBM PC en 1980, y se extendió en 1983 como el XT bus architecture. El nuevo estándar de 16 bits se introduce en 1984 y se le llama habitualmente AT bus architecture. Diseñado para conectar tarjetas de ampliación a la placa madre, el protocolo también permite el bus mastering aunque sólo los primeros 16 MiB de la memoria principal están disponibles para acceso directo. El bus de 8 bits funciona a 4,77 MHz (la misma velocidad que el procesador Intel 8088 empleado en el IBM PC), mientras que el de 16 bits opera a 8 MHz (el de Intel 80286 del IBM AT). Está también disponible en algunas máquinas que no son compatibles IBM PC, como el AT&T Hobbit (de corta historia), los Commodore Amiga 2000 y los BeBox basados en PowerPC.
Físicamente, el slot XT es un conector de borde de tarjeta de 62 contactos (31 por cara) y 8,5 cm, mientras que el AT se añade un segundo conector de 36 contactos (18 por cara), con un tamaño de 14 cm. Ambos suelen ser en color negro. Al ser retro compatibles, puede pincharse una tarjeta XT en un slot AT sin problemas, excepto en placas mal diseñadas.
En 1987, IBM comienza a reemplazar el bus ISA por su bus propietario MCA (Micro Channel Architecture) en un intento por recuperar el control de la arquitectura PC y con ello del mercado PC. El sistema es mucho más avanzado que ISA, pero incompatible física y lógicamente, por lo que los fabricantes de ordenadores responden con el Extended Industry Standard Architecture (EISA) y posteriormente con el VESA Local Bus (VLB). De hecho, VLB usa algunas partes originalmente diseñados para MCA debido a que los fabricantes de componentes ya tienen la habilidad de fabricarlos. Ambos son extensiones compatibles con el estándar ISA.
Los usuarios de máquinas basadas en ISA tenían que disponer de información especial sobre el hardware que iban a añadir al sistema. Aunque un puñado de tarjetas eran esencialmente Plug-and-play (enchufar y listo), no era lo habitual. Frecuentemente había que configurar varias cosas al añadir un nuevo dispositivo, como la IRQ, las direcciones de entrada/salida, o el canal DMA. MCA había resuelto esos problemas, y actualmente PCI incorpora muchas de las ideas que nacieron con MCA (aunque descienden más directamente de EISA).
Estos problema con la configuración llevaron a la creación de ISA PnP, un sistema Plug-and-play que usa una combinación de modificaciones al hardware, la BIOS del sistema, y el software del sistema operativo que automáticamente maneja los detalles más gruesos. En realidad, ISA PnP acabó convirtiéndose en un dolor de cabeza crónico, y nunca fue bien soportado excepto al final de la historia de ISA. De ahí proviene la extensión de la frase sarcástica "plug-and-pray" (enchufar y rezar).
Los slots PCI fueron el primer puerto de expansión físicamente incompatible con ISA que lograron expulsarla de la placa madre. Al principio, las placas base eran en gran parte ISA, incluyendo algunas ranuras del PCI. Pero a mitad de los 90, los dos tipos de slots estaban equilibrados, y al poco los ISA pasaron a ser minoría en los ordenadores de consumo. Las especificaciones PC 97 de Microsoft recomendaban que los slots ISA se retiraran por completo, aunque la arquitectura del sistema todavía requiera de ISA en modo residual para direccionar las lectoras de disquete, los puertos RS-232, etc. Los slots ISA permanecen por algunos años más y es posible ver placas con un slot Accelerated Graphics Port (AGP) justo al lado de la CPU, una serie de slots PCI, y uno o dos slots ISA cerca del borde.
Es también notable que los slots PCI están "rotados" en comparación con los ISA. Los conectores externos y la circuitería principal de ISA están dispuestos en el lado izquierdo de la placa, mientras que los de PCI lo están en el lado derecho, siempre mirando desde arriba. De este modo ambos slots podían estar juntos, pudiendo usarse sólo uno de ellos, lo que exprimía la placa madre.
El ancho de banda máximo del bus ISA de 16 bits es de 16 Mbyte/segundo. Este ancho de banda es insuficiente para las necesidades actuales, tales como tarjetas de vídeo de alta resolución, por lo que el bus ISA no se emplea en los PCs modernos (2004), en los que ha sido substituido por el bus PCI.
ISA se creó como un sistema de 8 bits en el IBM PC en 1980, y se extendió en 1983 como el XT bus architecture. El nuevo estándar de 16 bits se introduce en 1984 y se le llama habitualmente AT bus architecture. Diseñado para conectar tarjetas de ampliación a la placa madre, el protocolo también permite el bus mastering aunque sólo los primeros 16 MiB de la memoria principal están disponibles para acceso directo. El bus de 8 bits funciona a 4,77 MHz (la misma velocidad que el procesador Intel 8088 empleado en el IBM PC), mientras que el de 16 bits opera a 8 MHz (el de Intel 80286 del IBM AT). Está también disponible en algunas máquinas que no son compatibles IBM PC, como el AT&T Hobbit (de corta historia), los Commodore Amiga 2000 y los BeBox basados en PowerPC.
Físicamente, el slot XT es un conector de borde de tarjeta de 62 contactos (31 por cara) y 8,5 cm, mientras que el AT se añade un segundo conector de 36 contactos (18 por cara), con un tamaño de 14 cm. Ambos suelen ser en color negro. Al ser retro compatibles, puede pincharse una tarjeta XT en un slot AT sin problemas, excepto en placas mal diseñadas.
En 1987, IBM comienza a reemplazar el bus ISA por su bus propietario MCA (Micro Channel Architecture) en un intento por recuperar el control de la arquitectura PC y con ello del mercado PC. El sistema es mucho más avanzado que ISA, pero incompatible física y lógicamente, por lo que los fabricantes de ordenadores responden con el Extended Industry Standard Architecture (EISA) y posteriormente con el VESA Local Bus (VLB). De hecho, VLB usa algunas partes originalmente diseñados para MCA debido a que los fabricantes de componentes ya tienen la habilidad de fabricarlos. Ambos son extensiones compatibles con el estándar ISA.
Los usuarios de máquinas basadas en ISA tenían que disponer de información especial sobre el hardware que iban a añadir al sistema. Aunque un puñado de tarjetas eran esencialmente Plug-and-play (enchufar y listo), no era lo habitual. Frecuentemente había que configurar varias cosas al añadir un nuevo dispositivo, como la IRQ, las direcciones de entrada/salida, o el canal DMA. MCA había resuelto esos problemas, y actualmente PCI incorpora muchas de las ideas que nacieron con MCA (aunque descienden más directamente de EISA).
Estos problema con la configuración llevaron a la creación de ISA PnP, un sistema Plug-and-play que usa una combinación de modificaciones al hardware, la BIOS del sistema, y el software del sistema operativo que automáticamente maneja los detalles más gruesos. En realidad, ISA PnP acabó convirtiéndose en un dolor de cabeza crónico, y nunca fue bien soportado excepto al final de la historia de ISA. De ahí proviene la extensión de la frase sarcástica "plug-and-pray" (enchufar y rezar).
Los slots PCI fueron el primer puerto de expansión físicamente incompatible con ISA que lograron expulsarla de la placa madre. Al principio, las placas base eran en gran parte ISA, incluyendo algunas ranuras del PCI. Pero a mitad de los 90, los dos tipos de slots estaban equilibrados, y al poco los ISA pasaron a ser minoría en los ordenadores de consumo. Las especificaciones PC 97 de Microsoft recomendaban que los slots ISA se retiraran por completo, aunque la arquitectura del sistema todavía requiera de ISA en modo residual para direccionar las lectoras de disquete, los puertos RS-232, etc. Los slots ISA permanecen por algunos años más y es posible ver placas con un slot Accelerated Graphics Port (AGP) justo al lado de la CPU, una serie de slots PCI, y uno o dos slots ISA cerca del borde.
Es también notable que los slots PCI están "rotados" en comparación con los ISA. Los conectores externos y la circuitería principal de ISA están dispuestos en el lado izquierdo de la placa, mientras que los de PCI lo están en el lado derecho, siempre mirando desde arriba. De este modo ambos slots podían estar juntos, pudiendo usarse sólo uno de ellos, lo que exprimía la placa madre.
El ancho de banda máximo del bus ISA de 16 bits es de 16 Mbyte/segundo. Este ancho de banda es insuficiente para las necesidades actuales, tales como tarjetas de vídeo de alta resolución, por lo que el bus ISA no se emplea en los PCs modernos (2004), en los que ha sido substituido por el bus PCI.
EISA
Extended Industry Standard Architecture
El Extended Industry Standard Architecture (en inglés, Arquitectura Estándar Industrial Extendida), casi siempre abreviado EISA, es una arquitectura de bus para computadora es compatibles con el IBM PC. Fue anunciado a finales de 1988 y desarrollado por el llamado "Grupo de los Nueve" (AST, Compaq, Epson, Hewlett-Packard, NEC Corporation, Olivetti, Tandy, Wyse y Zenith), vendedores de computadores clónicos como respuesta al uso por parte de IBM de su arquitectura propietaria MicroChannel (MCA) en su serie PS/2. Tuvo un uso limitado en computadores personales 386 e 486 hasta mediados de los años 1990, cuando fue reemplazado por los buses locales tales como el bus local VESA y el PCI
EISA amplía la arquitectura de bus ISA a 32 bits y permite que más de una CPU comparta el bus. El soporte de bus mastering también se mejora para permitir acceso hasta a 4 GB de memoria. A diferencia de MCA, EISA es compatible de forma descendente con ISA, por lo que puede aceptar tarjetas antiguas XT e ISA, siendo conexiones y las ranuras una ampliación de las del bus ISA.
A pesar de ser en cierto modo inferior a MCA, el estándar EISA fue muy favorecido por los fabricantes debido a la naturaleza propietaria de MCA, e incluso IBM fabricó algunas máquinas que lo soportaban. Pero en el momento en el que hubo una fuerte demanda de un bus de estas velocidades y prestaciones, el bus local VESA y posteriormente el PCI llenaron este nicho y el EISA desapareció en la oscuridad.
EISA introduce las siguientes mejoras sobre ISA:
Direcciones de memoria de 32 bits para CPU, DMA, y dispositivos de bus master.
Protocolo de transmisión síncrona para transferencias de alta velocidad.
Traducción automática de ciclos de bus entre maestros y esclavos EISA e ISA.
Soporte de controladores de periféricos maestros inteligentes.
33 MB/s de velocidad de transferencia para buses maestros y dispositivos DMA
Interrupciones compartidas
Configuración automática del sistema y las tarjetas de expansión
Extended Industry Standard Architecture
El Extended Industry Standard Architecture (en inglés, Arquitectura Estándar Industrial Extendida), casi siempre abreviado EISA, es una arquitectura de bus para computadora es compatibles con el IBM PC. Fue anunciado a finales de 1988 y desarrollado por el llamado "Grupo de los Nueve" (AST, Compaq, Epson, Hewlett-Packard, NEC Corporation, Olivetti, Tandy, Wyse y Zenith), vendedores de computadores clónicos como respuesta al uso por parte de IBM de su arquitectura propietaria MicroChannel (MCA) en su serie PS/2. Tuvo un uso limitado en computadores personales 386 e 486 hasta mediados de los años 1990, cuando fue reemplazado por los buses locales tales como el bus local VESA y el PCI
EISA amplía la arquitectura de bus ISA a 32 bits y permite que más de una CPU comparta el bus. El soporte de bus mastering también se mejora para permitir acceso hasta a 4 GB de memoria. A diferencia de MCA, EISA es compatible de forma descendente con ISA, por lo que puede aceptar tarjetas antiguas XT e ISA, siendo conexiones y las ranuras una ampliación de las del bus ISA.
A pesar de ser en cierto modo inferior a MCA, el estándar EISA fue muy favorecido por los fabricantes debido a la naturaleza propietaria de MCA, e incluso IBM fabricó algunas máquinas que lo soportaban. Pero en el momento en el que hubo una fuerte demanda de un bus de estas velocidades y prestaciones, el bus local VESA y posteriormente el PCI llenaron este nicho y el EISA desapareció en la oscuridad.
EISA introduce las siguientes mejoras sobre ISA:
Direcciones de memoria de 32 bits para CPU, DMA, y dispositivos de bus master.
Protocolo de transmisión síncrona para transferencias de alta velocidad.
Traducción automática de ciclos de bus entre maestros y esclavos EISA e ISA.
Soporte de controladores de periféricos maestros inteligentes.
33 MB/s de velocidad de transferencia para buses maestros y dispositivos DMA
Interrupciones compartidas
Configuración automática del sistema y las tarjetas de expansión
PCI
Peripheral Component Interconnect
Un Peripheral Component Interconnect (PCI, "Interconexión de Componentes Periféricos") consiste en un bus de ordenador estándar para conectar dispositivos periféricos directamente a su placa base. Estos dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados "dispositivos planares" en la especificación PCI) o tarjetas de expansión que se ajustan en conectores. Es común en PCs, donde ha desplazado al ISA como bus estándar, pero también se emplea en otro tipo de ordenadores.
A diferencia de los buses ISA, el bus PCI permite configuración dinámica de un dispositivo periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el BIOS interactúan y negocian los recursos solicitados por la tarjeta PCI. Esto permite asignación de IRQs y direcciones del puerto por medio de un proceso dinámico diferente del bus ISA, donde las IRQs tienen que ser configuradas manualmente usando jumpers externos. Las últimas revisiones de ISA y el bus MCA de IBM ya incorporaron tecnologías que automatizaban todo el proceso de configuración de las tarjetas, pero el bus PCI demostró una mayor eficacia en tecnología "plug and play". Aparte de esto, el bus PCI proporciona una descripción detallada de todos los dispositivos PCI conectados a través del espacio de configuración PCI.
Peripheral Component Interconnect
Un Peripheral Component Interconnect (PCI, "Interconexión de Componentes Periféricos") consiste en un bus de ordenador estándar para conectar dispositivos periféricos directamente a su placa base. Estos dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados "dispositivos planares" en la especificación PCI) o tarjetas de expansión que se ajustan en conectores. Es común en PCs, donde ha desplazado al ISA como bus estándar, pero también se emplea en otro tipo de ordenadores.
A diferencia de los buses ISA, el bus PCI permite configuración dinámica de un dispositivo periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el BIOS interactúan y negocian los recursos solicitados por la tarjeta PCI. Esto permite asignación de IRQs y direcciones del puerto por medio de un proceso dinámico diferente del bus ISA, donde las IRQs tienen que ser configuradas manualmente usando jumpers externos. Las últimas revisiones de ISA y el bus MCA de IBM ya incorporaron tecnologías que automatizaban todo el proceso de configuración de las tarjetas, pero el bus PCI demostró una mayor eficacia en tecnología "plug and play". Aparte de esto, el bus PCI proporciona una descripción detallada de todos los dispositivos PCI conectados a través del espacio de configuración PCI.
VESA
El bus VESA (Video Electronics Standards Association, la compañía que lo diseñó) es un tipo de bus de datos para ordenadores personales, utilizado sobre todo en equipos diseñados para el procesador Intel 80486. Permite conectar directamente la tarjeta gráfica al procesador.
Este bus es compatible con el bus ISA pero mejora la respuesta gráfica, solucionando el problema de la insuficiencia de flujo de datos de su predecesor. Para ello su estructura consistía en un extensión del ISA de 16 bits. Las tarjetas de expansión de este tipo eran enormes lo que, junto a la aparición del bus PCI, mucho más rápido en velocidad de reloj, y con menor longitud y mayor versatilidad, hizo desaparecer al VESA, aunque sigue existiendo en algunos equipos antiguos.
El bus VESA (Video Electronics Standards Association, la compañía que lo diseñó) es un tipo de bus de datos para ordenadores personales, utilizado sobre todo en equipos diseñados para el procesador Intel 80486. Permite conectar directamente la tarjeta gráfica al procesador.
Este bus es compatible con el bus ISA pero mejora la respuesta gráfica, solucionando el problema de la insuficiencia de flujo de datos de su predecesor. Para ello su estructura consistía en un extensión del ISA de 16 bits. Las tarjetas de expansión de este tipo eran enormes lo que, junto a la aparición del bus PCI, mucho más rápido en velocidad de reloj, y con menor longitud y mayor versatilidad, hizo desaparecer al VESA, aunque sigue existiendo en algunos equipos antiguos.
Discos y cintas magnéticas de gran capacidad.
Unidad de 3,5 pulgadas
La unidad de 3,5 pulgadas permite intercambiar información utilizando disquetes magnéticos de 1,44 MB de capacidad. Aunque la capacidad de soporte es muy limitada si tenemos en cuenta las necesidades de las aplicaciones actuales se siguen utilizando para intercambiar archivos pequeños, pues pueden borrarse y reescribirse cuantas veces se desee de una manera muy cómoda, aunque la transferencia de información es bastante lenta si la comparamos con otros soportes, como el disco duro o un CD-ROM.
Para usar el disquete basta con introducirlo en la ranura de la disquetera. Para expulsarlo se pulsa el botón situado junto a la ranura, o bien se ejecuta alguna acción en el entorno gráfico con el que trabajamos (por ejemplo, se arrastra el símbolo del disquete hasta un icono representado por una papelera).
La unidad de disco se alimenta mediante cables a partir de la fuente de alimentación del sistema. Y también va conectada mediante un cable a la placa base. Un diodo LED se ilumina junto a la ranura cuando la unidad está leyendo el disco, como ocurre en el caso del disco duro.
En los disquetes solo se puede escribir cuando la pestaña esta cerrada.
Para usar el disquete basta con introducirlo en la ranura de la disquetera. Para expulsarlo se pulsa el botón situado junto a la ranura, o bien se ejecuta alguna acción en el entorno gráfico con el que trabajamos (por ejemplo, se arrastra el símbolo del disquete hasta un icono representado por una papelera).
La unidad de disco se alimenta mediante cables a partir de la fuente de alimentación del sistema. Y también va conectada mediante un cable a la placa base. Un diodo LED se ilumina junto a la ranura cuando la unidad está leyendo el disco, como ocurre en el caso del disco duro.
En los disquetes solo se puede escribir cuando la pestaña esta cerrada.
Disco Duro
El disco duro almacena casi toda la información que manejamos al trabajar con una computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la máquina, los programas, los archivos de texto, imagen...
Un disco duro está formado por varios discos apilados sobre los que se mueve una pequeña cabeza magnética que graba y lee la información.
Este componente, al contrario que el micro o los módulos de memoria, no se pincha directamente en la placa, sino que se conecta a ella mediante un cable. También va conectado a la fuente de alimentación, pues, como cualquier otro componente, necesita energía para funcionar.
Además, una sola placa puede tener varios discos duros conectados.
Las características principales de un disco duro son:
La capacidad. Se mide en gigabytes (GB). Es el espacio disponible para almacenar secuencias de 1 byte. La capacidad aumenta constantemente cientos de MB, decenas de GB, cientos de GB.
La velocidad de giro. Se mide en revoluciones por minuto (rpm). Cuanto más rápido gire el disco, más rápido podrá acceder a la información la cabeza lectora. Los discos actuales giran desde las 4.200 a 15.000 rpm, dependiendo del tipo de ordenador al que estén destinadas.
La capacidad de transmisión de datos. De poco servirá un disco duro de gran capacidad si transmite los datos lentamente. Los discos actuales pueden alcanzar transferencias de datos de más de 400 MB por segundo.
También existen discos duros externos que permiten almacenar grandes cantidades de información. Son muy útiles para intercambiar información entre dos equipos. Normalmente se conectan al PC mediante un conector USB.
Cuando el disco duro está leyendo, se enciende en la carcasa un diodo LED (de color rojo, verde..). Esto es útil para saber, por ejemplo, si la máquina ha acabado de realizar una tarea o si aún está procesando datos.
Un disco duro está formado por varios discos apilados sobre los que se mueve una pequeña cabeza magnética que graba y lee la información.
Este componente, al contrario que el micro o los módulos de memoria, no se pincha directamente en la placa, sino que se conecta a ella mediante un cable. También va conectado a la fuente de alimentación, pues, como cualquier otro componente, necesita energía para funcionar.
Además, una sola placa puede tener varios discos duros conectados.
Las características principales de un disco duro son:
La capacidad. Se mide en gigabytes (GB). Es el espacio disponible para almacenar secuencias de 1 byte. La capacidad aumenta constantemente cientos de MB, decenas de GB, cientos de GB.
La velocidad de giro. Se mide en revoluciones por minuto (rpm). Cuanto más rápido gire el disco, más rápido podrá acceder a la información la cabeza lectora. Los discos actuales giran desde las 4.200 a 15.000 rpm, dependiendo del tipo de ordenador al que estén destinadas.
La capacidad de transmisión de datos. De poco servirá un disco duro de gran capacidad si transmite los datos lentamente. Los discos actuales pueden alcanzar transferencias de datos de más de 400 MB por segundo.
También existen discos duros externos que permiten almacenar grandes cantidades de información. Son muy útiles para intercambiar información entre dos equipos. Normalmente se conectan al PC mediante un conector USB.
Cuando el disco duro está leyendo, se enciende en la carcasa un diodo LED (de color rojo, verde..). Esto es útil para saber, por ejemplo, si la máquina ha acabado de realizar una tarea o si aún está procesando datos.
Memoria USB, pendrive o USB flash drive
Es un pequeño dispositivo de almacenamiento que utiliza memoria flash para guardar la información que puede requerir o no baterías (pilas), en los ultimos modelos la bateria no es requerida, la bateria era utilizada por los primeros modelos. Estas memorias son resistentes a los rasguños(externos) y al polvo que han afectado a las formas previas de almacenamiento portátil, como los CD y los disquetes.
Unidad de DVD-RW
Unidad de DVD-ROM
Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden leer tanto discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras de CD-ROM en que el soporte empleado tiene hasta 17 GB de capacidad, y en la velocidad de lectura de los datos. La velocidad se expresa con otro número de la «x»: 12x, 16x... Pero ahora la x hace referencia a 1,32 MB/s. Así: 16x = 21,12 MB/s.
Las conexiones de una unidad de DVD-ROM son similares a las de la unidad de CD-ROM: placa base, fuente de alimentación y tarjeta de sonido. La diferencia más destacable es que las unidades lectoras de discos DVD-ROM también pueden disponer de una salida de audio digital. Gracias a esta conexión es posible leer películas en formato DVD y escuchar seis canales de audio separados si disponemos de una buena tarjeta de sonido y un juego de altavoces apropiado (subwoofer más cinco satélites).
Las conexiones de una unidad de DVD-ROM son similares a las de la unidad de CD-ROM: placa base, fuente de alimentación y tarjeta de sonido. La diferencia más destacable es que las unidades lectoras de discos DVD-ROM también pueden disponer de una salida de audio digital. Gracias a esta conexión es posible leer películas en formato DVD y escuchar seis canales de audio separados si disponemos de una buena tarjeta de sonido y un juego de altavoces apropiado (subwoofer más cinco satélites).
Unidad de CD-RW (Regrabadora)
Las unidades de CD-ROM son sólo de lectura. Es decir, pueden leer la información en un disco, pero no pueden escribir datos en él.
Una regrabadora (CD-RW) puede grabar y regrabar discos compactos. Las características básicas de estas unidades son la velocidad de lectura, de grabación y de regrabación. En discos regrabables es normalmente menor que en los discos grabables una sola vez. Las regrabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650, 700 MB o más tamaño (hasta 900 MB) de un disco compacto en unos pocos minutos. Es habitual observar tres datos de velocidad, según la expresión ax bx cx (a:velocidad de lectura; b: velocidad de grabación; c: velocidad de regrabación).
Una regrabadora (CD-RW) puede grabar y regrabar discos compactos. Las características básicas de estas unidades son la velocidad de lectura, de grabación y de regrabación. En discos regrabables es normalmente menor que en los discos grabables una sola vez. Las regrabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650, 700 MB o más tamaño (hasta 900 MB) de un disco compacto en unos pocos minutos. Es habitual observar tres datos de velocidad, según la expresión ax bx cx (a:velocidad de lectura; b: velocidad de grabación; c: velocidad de regrabación).
CD
La unidad del CD o lector/reproductor de CD son unidades ópticas capaces de reproducir CD datos, música, vídeo, etc., y en ciertos casos "quemar" dichos discos, cambiandole el nombre por "quemadores de cd".
El lector de discos compactos está compuesto de:
Un cabezal, en el que hay un emisor de rayos láser, que dispara un haz de luz hacia la superficie del disco, y que tiene también un fotoreceptor (foto-diodo) que recibe el haz de luz que rebota en la superficie del disco. El láser suele ser un diodo AlGaAs con una longitud de onda en el aire de 780 nm. (Cercano a los infrarrojos, nuestro rango de visión llega hasta aproximadamente 720 nm.) por lo que resulta una luz invisible al ojo humano, pero no por ello inocua. Ha de evitarse siempre dirigir la vista hacia un haz láser. La longitud de onda dentro del policarbonato es de un factor n=1.55 más pequeño que en el aire, es decir 500 nm.
Un motor que hace girar el disco compacto, y otro que mueve el cabezal radialmente. Con estos dos mecanismos se tiene acceso a todo el disco. El motor se encarga del CLV (Constant Linear Velocity), que es el sistema que ajusta la velocidad del motor de manera que su velocidad lineal sea siempre constante. Así, cuando el cabezal de lectura está cerca del borde el motor gira más despacio que cuando está cerca del centro. Este hecho dificulta mucho la construcción del lector pero asegura que la tasa de entrada de datos al sistema sea constante. La velocidad de rotación en este caso es controlada por un microcontrolador que actúa según la posición del cabezal de lectura para permitir un acceso aleatorio a los datos. Los CD-ROM, además permiten mantener la velocidad angular constante, el CAV (Constant Angular Velocity). Esto es importante tenerlo en cuenta cuando se habla de velocidades de lectura de los CD-ROM.
Un DAC, en el caso de los CD-Audio, y en casi todos los CD-ROM. DAC es Digital to Analogical Converter. Es decir un convertidor de señal digital a señal analógica, la cual es enviada a los altavoces. DAC’s también hay en las tarjetas de sonido, las cuales, en su gran mayoría, tienen también un ADC, que hace el proceso inverso, de analógico a digital.
Otros servosistemas, como el que se encarga de guiar el láser a través de la espiral, el que asegura la distancia precisa entre el disco y el cabezal, para que el laser llegue perfectamente al disco, o el que corrige los errores, etcétera.
Pasos que sigue el cabezal para la lectura de un CD:
1. Un haz de luz coherente (láser) es emitido por un diodo de infrarrojos hacia un espejo que forma parte del cabezal de lectura, el cual se mueve linealmente a lo largo de la superficie del disco.
2. La luz reflejada en el espejo atraviesa una lente y es enfocada sobre un punto de la superficie del CD
3. Esta luz incidente se refleja en la capa de aluminio, atravesando el recubrimiento de policarbonato. La altura de los salientes (pits) es igual en todos y está seleccionada con mucho cuidado, para que sea justo ¼ de la longitud de onda del láser en el policarbonato.
La idea aquí es que la luz que llega al llano (land) viaje 1/4 + 1/4 = 1/2 de la longitud de onda (en la figura se ve que la onda que va a la zona sin saliente hace medio período, rebota y hace otro medio período, lo que devuelve una onda desfasada medio período ½ cuando va a la altura del saliente), mientras que cuando la luz rebota en un saliente, la señal rebota con la misma fase y período pero en dirección contraria. Esto hace que se cumpla una propiedad de la óptico-física que dice una señal que tiene cierta frecuencia puede ser anulada por otra señal con la misma frecuencia, y misma fase pero en sentido contrario por eso la luz no llega al fotoreceptor, se destruye a sí misma. Se da el valor 0 a toda sucesión de salientes (cuando la luz no llega al fotoreceptor) o no salientes (cuando la luz llega desfasada ½ período, que ha atravesado casi sin problemas al haz de luz que va en la otra dirección, y ha llegando al fotoreceptor), y damos el valor 1 al cambio entre saliente y no saliente, teniendo así una representación binaria. (Cambio de luz a no luz en el fotoreceptor 1, y luz continua o no luz continua 0.)
4. La luz reflejada se encamina mediante una serie de lentes y espejos a un fotodetector que recoge la cantidad de luz reflejada
5. La energía luminosa del fotodetector se convierte en energía eléctrica y mediante un simple umbral el detector decidirá si el punto señalado por el puntero se corresponde con un cero o un uno.
Lectores de CD-ROM
Un lector de CD-ROM es un dispositivo electrónico que permite la lectura de estos mediante el empleo de un haz de un rayo láser y la posterior transformación de estos en impulsos eléctricos que la computadora interpreta- y escritos por grabadoras de CD -dispositivo similar a la lectora CD-ROM, con la diferencia que hace lo contrario a la lectura, es decir, transformar impulsos eléctricos en un haz de luz láser que almacenan en el CD datos binarios en forma de pozos y llanos - (a menudo llamadas "quemadoras"). Los lectores CD-ROM ——ahora casi universalmente usados en las computadoras—— puede ser conectado a la computadora por la interfaz IDE (ATA), por una interfaz SCSI o una interfaz propietaria, como la interfaz de Panasonic. La mayoría de los lectores de CD-ROM pueden también leer CD de audio (CDA) y CD de vídeo (VCD) con el software apropiado.
Los pozos tienen una anchura de 0,6 micras, mientras que su profundidad (respecto a los llanos) se reduce a 0,12 micras. La longitud de pozos y llanos está entre las 0,9 y las 3,3 micras. Entre una revolución de la espiral y las adyacentes hay una distancia aproximada de 1,6 micras (lo que hace cerca de 20 caquitas por centímetro).
Es creencia muy común el pensar que un pozo corresponde a un valor binario y un llano al otro valor. Sin embargo, esto no es así, sino que los valores binarios son detectados por las transiciones de pozo a llano, y viceversa: una transición determina un 1 binario, mientras que la longitud de un pozo o un llano indica el número consecutivo de 0 binarios.
El lector de discos compactos está compuesto de:
Un cabezal, en el que hay un emisor de rayos láser, que dispara un haz de luz hacia la superficie del disco, y que tiene también un fotoreceptor (foto-diodo) que recibe el haz de luz que rebota en la superficie del disco. El láser suele ser un diodo AlGaAs con una longitud de onda en el aire de 780 nm. (Cercano a los infrarrojos, nuestro rango de visión llega hasta aproximadamente 720 nm.) por lo que resulta una luz invisible al ojo humano, pero no por ello inocua. Ha de evitarse siempre dirigir la vista hacia un haz láser. La longitud de onda dentro del policarbonato es de un factor n=1.55 más pequeño que en el aire, es decir 500 nm.
Un motor que hace girar el disco compacto, y otro que mueve el cabezal radialmente. Con estos dos mecanismos se tiene acceso a todo el disco. El motor se encarga del CLV (Constant Linear Velocity), que es el sistema que ajusta la velocidad del motor de manera que su velocidad lineal sea siempre constante. Así, cuando el cabezal de lectura está cerca del borde el motor gira más despacio que cuando está cerca del centro. Este hecho dificulta mucho la construcción del lector pero asegura que la tasa de entrada de datos al sistema sea constante. La velocidad de rotación en este caso es controlada por un microcontrolador que actúa según la posición del cabezal de lectura para permitir un acceso aleatorio a los datos. Los CD-ROM, además permiten mantener la velocidad angular constante, el CAV (Constant Angular Velocity). Esto es importante tenerlo en cuenta cuando se habla de velocidades de lectura de los CD-ROM.
Un DAC, en el caso de los CD-Audio, y en casi todos los CD-ROM. DAC es Digital to Analogical Converter. Es decir un convertidor de señal digital a señal analógica, la cual es enviada a los altavoces. DAC’s también hay en las tarjetas de sonido, las cuales, en su gran mayoría, tienen también un ADC, que hace el proceso inverso, de analógico a digital.
Otros servosistemas, como el que se encarga de guiar el láser a través de la espiral, el que asegura la distancia precisa entre el disco y el cabezal, para que el laser llegue perfectamente al disco, o el que corrige los errores, etcétera.
Pasos que sigue el cabezal para la lectura de un CD:
1. Un haz de luz coherente (láser) es emitido por un diodo de infrarrojos hacia un espejo que forma parte del cabezal de lectura, el cual se mueve linealmente a lo largo de la superficie del disco.
2. La luz reflejada en el espejo atraviesa una lente y es enfocada sobre un punto de la superficie del CD
3. Esta luz incidente se refleja en la capa de aluminio, atravesando el recubrimiento de policarbonato. La altura de los salientes (pits) es igual en todos y está seleccionada con mucho cuidado, para que sea justo ¼ de la longitud de onda del láser en el policarbonato.
La idea aquí es que la luz que llega al llano (land) viaje 1/4 + 1/4 = 1/2 de la longitud de onda (en la figura se ve que la onda que va a la zona sin saliente hace medio período, rebota y hace otro medio período, lo que devuelve una onda desfasada medio período ½ cuando va a la altura del saliente), mientras que cuando la luz rebota en un saliente, la señal rebota con la misma fase y período pero en dirección contraria. Esto hace que se cumpla una propiedad de la óptico-física que dice una señal que tiene cierta frecuencia puede ser anulada por otra señal con la misma frecuencia, y misma fase pero en sentido contrario por eso la luz no llega al fotoreceptor, se destruye a sí misma. Se da el valor 0 a toda sucesión de salientes (cuando la luz no llega al fotoreceptor) o no salientes (cuando la luz llega desfasada ½ período, que ha atravesado casi sin problemas al haz de luz que va en la otra dirección, y ha llegando al fotoreceptor), y damos el valor 1 al cambio entre saliente y no saliente, teniendo así una representación binaria. (Cambio de luz a no luz en el fotoreceptor 1, y luz continua o no luz continua 0.)
4. La luz reflejada se encamina mediante una serie de lentes y espejos a un fotodetector que recoge la cantidad de luz reflejada
5. La energía luminosa del fotodetector se convierte en energía eléctrica y mediante un simple umbral el detector decidirá si el punto señalado por el puntero se corresponde con un cero o un uno.
Lectores de CD-ROM
Un lector de CD-ROM es un dispositivo electrónico que permite la lectura de estos mediante el empleo de un haz de un rayo láser y la posterior transformación de estos en impulsos eléctricos que la computadora interpreta- y escritos por grabadoras de CD -dispositivo similar a la lectora CD-ROM, con la diferencia que hace lo contrario a la lectura, es decir, transformar impulsos eléctricos en un haz de luz láser que almacenan en el CD datos binarios en forma de pozos y llanos - (a menudo llamadas "quemadoras"). Los lectores CD-ROM ——ahora casi universalmente usados en las computadoras—— puede ser conectado a la computadora por la interfaz IDE (ATA), por una interfaz SCSI o una interfaz propietaria, como la interfaz de Panasonic. La mayoría de los lectores de CD-ROM pueden también leer CD de audio (CDA) y CD de vídeo (VCD) con el software apropiado.
Los pozos tienen una anchura de 0,6 micras, mientras que su profundidad (respecto a los llanos) se reduce a 0,12 micras. La longitud de pozos y llanos está entre las 0,9 y las 3,3 micras. Entre una revolución de la espiral y las adyacentes hay una distancia aproximada de 1,6 micras (lo que hace cerca de 20 caquitas por centímetro).
Es creencia muy común el pensar que un pozo corresponde a un valor binario y un llano al otro valor. Sin embargo, esto no es así, sino que los valores binarios son detectados por las transiciones de pozo a llano, y viceversa: una transición determina un 1 binario, mientras que la longitud de un pozo o un llano indica el número consecutivo de 0 binarios.
DEFINICION DE COMPUTADORA
Una computadora (del latín computare -calcular-), también denominada como ordenador o computador, es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, sorprendente rapidez, y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una múltiple variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora u ordenador, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output". La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento
La característica principal que la distingue de otros dispositivos similares, como una calculadora no programable, es que puede realizar tareas muy diversas cargando distintos programas en la memoria para que el microprocesador los ejecute
La característica principal que la distingue de otros dispositivos similares, como una calculadora no programable, es que puede realizar tareas muy diversas cargando distintos programas en la memoria para que el microprocesador los ejecute
ARPANET
La red de computadoras ARPANET (Advanced Research Projects Agency Network) fue creada por encargo del Departamento de Defensa de los Estados Unidos ("DoD" por sus siglas en inglés)como medio de comunicación para los diferentes organismos del país. El primer nodo se creó en la Universidad de California, Los Ángeles y fue la espina dorsal de Internet hasta 1990, tras finalizar la transición al protocolo TCP/IP en 1983.
El concepto de una red de computadoras capaz de comunicar usuarios en distintas computadoras fue formulado por J.C.R. Licklider de Bolt, Beranek and Newman (BBN) en agosto de 1962, en una serie de notas que discutían la idea de "Red Galáctica".
En octubre del mismo año, Licklider fue convocado por ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al Departamento de Defensa de los Estados Unidos. En este foro, convenció a Ivan Sutherland y Bob Taylor de la importancia del concepto antes de abandonar la agencia, y antes de que se iniciara trabajo alguno.
Mientras tanto, Paul Baran estaba trabajando desde 1959 en la RAND Corporation en una red segura de comunicaciones capaz de sobrevivir a un ataque con armas nucleares, con fines militares.
Sus resultados se publicaron a partir de 1960, y en ellos se describían dos ideas clave:
El uso de una red descentralizada con múltiples caminos entre dos puntos.
La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.
El resumen final de este esquema se presentó en 1962 y se publicó en 1964.
En la misma época, Leonard Kleinrock ya trabajaba en el concepto de almacenar y reenviar mensajes en su tesis doctoral en el MIT. Esto incluía un importante análisis de la teoría de colas aplicada a las redes de comunicaciones (publicado como libro en 1964). Su trabajo aún no incluía la idea de fragmentación en paquetes.
Por último, Donal Davies, del Laboratorio Nacional de Física comenzó a relacionar todos estos conceptos en 1965, después de asistir a una conferencia en el Reino Unido sobre multiplexación en el tiempo. Su investigación tuvo lugar independientemente de los trabajos de Baran, de los que no tuvo conocimiento hasta 1966. Casualmente, fue Davies quien empezó a usar el término "paquete".
En este estado de las cosas, cuatro centros de investigación independientes (DARPA, la corporación RAND, el MIT y NPL en el Reino Unido) acabarían convirtiéndose en los primeros nodos experimentales de ARPANET.
Mientras todo esto ocurría, ARPA y Taylor seguían interesados en crear una red de ordenadores. Al final de 1966, Taylor contactó a Lawrence G. Roberts (del Laboratorio Lincoln, en el MIT) con el objeto de que liderase el proyecto de creación de la nueva red. Roberts ya conocía a Davies gracias a la mencionada conferencia sobre multiplexación en el tiempo.
El concepto original de Roberts consistía en utilizar la técnica de multiplexación en el tiempo, uniendo máquinas directamente con cables telefónicos. En una de las primeras reuniones (de 1967), muchos participantes no estaban dispuestos a que sus computadoras tuvieran que gestionar líneas telefónicas. Uno de estos participantes, Wesley A. Clark, tuvo la idea de usar pequeños ordenadores separados sólo para gestionar los enlaces de comunicaciones. Esta idea permitió descargar de trabajo a las computadoras principales, además de aislar la red de la distinta naturaleza de cada computadora.
Sobre esta base comenzó el diseño inicial de ARPANET. Roberts presentó su primer plan en un simposio de 1967. En este mismo evento se encontraba presente Roger Scantlebury, colaborador de Davies. Gracias a este encuentro discutieron la idea de la conmutación de paquetes, y permitió a Roberts conocer el trabajo de Baran.
En el verano de 1968 ya existía un plan completo y aprobado por ARPA. De manera que se celebró un concurso con 140 potenciales proveedores. Sin embargo, solamente 12 de ellos presentaron propuestas. En 1969, el contrato se adjudicó a BBN (donde había trabajado Lickliderel, creador del concepto de Red Galáctica).
La oferta de BBN seguía el plan de Roberts rapidamente. Los pequeños ordenadores se denominaron Procesadores del interfaz de mensajes (IMPs). Éstos implementaban la técnica de almacenar y reenviar y utilizaban un modem telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo). Los ordenadores centrales se conectaban a los IMPs mediante interfaces serie a medida.
Los IMP se implementaron inicialmente con ordenadores DDP-516 de Honeywell. Contaban con 24 kilobytes de memoria principal con capacidad para conectar un máximo de cuatro ordenadores centrales, y comunicarlos con otros seis IMP remotos. BBN tuvo disponible todo el hardware y el software necesario en tan sólo nueve meses.
La ARPANET inicial consistía en cuatro IMPs instalados en:
UCLA, donde Kleinrock creó el Centro de medición de red. Un ordenador SDS Sigma 7 fue el primero en conectarse.
El Augmentation Research Center en el Instituto de investigación de Stanford, donde Doug Engelbart creó el novedoso sistema NLS, un incipiente sistema de hipertexto. Un ordenador SDS 940 fue el primero en conectarse.
La Universidad de California, con un IBM 360.
El Departamento Gráfico de la Universidad de Utah, donde Ivan Sutherland se trasladó. Con un PDP-10 inicialmente conectado.
El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre UCLA y Stanford. el 5 de diciembre del mismo año, toda la red inicial estaba lista.
En marzo de 1970 ARPANET cruzó hasta la costa Este cuando la propia BBN se unió a la red. En 1971 ya existían 23 ordenadores conectados, pertenecientes a universidades y centros de investigación. Este número creció hasta 213 ordenadores en 1981 con una nueva incorporación cada 20 días en media.
En 1972, Ray Tomlinson de la BBN inventó el correo electrónico. En 1973, el protocolo FTP ya estaba definido e implementado, facilitando el movimiento de ficheros en ARPANET. Para entonces el 75% del tráfico ya se debía al éxito del correo electrónico. También se especificó un protocolo para transmisión de voz (RFC 741), que llegó a implementarse pero fue un fracaso por motivos técnicos. Esto no vería la luz hasta varias décadas más tarde.
El mito de que ARPANET se construyó para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet)
El concepto de una red de computadoras capaz de comunicar usuarios en distintas computadoras fue formulado por J.C.R. Licklider de Bolt, Beranek and Newman (BBN) en agosto de 1962, en una serie de notas que discutían la idea de "Red Galáctica".
En octubre del mismo año, Licklider fue convocado por ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al Departamento de Defensa de los Estados Unidos. En este foro, convenció a Ivan Sutherland y Bob Taylor de la importancia del concepto antes de abandonar la agencia, y antes de que se iniciara trabajo alguno.
Mientras tanto, Paul Baran estaba trabajando desde 1959 en la RAND Corporation en una red segura de comunicaciones capaz de sobrevivir a un ataque con armas nucleares, con fines militares.
Sus resultados se publicaron a partir de 1960, y en ellos se describían dos ideas clave:
El uso de una red descentralizada con múltiples caminos entre dos puntos.
La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.
El resumen final de este esquema se presentó en 1962 y se publicó en 1964.
En la misma época, Leonard Kleinrock ya trabajaba en el concepto de almacenar y reenviar mensajes en su tesis doctoral en el MIT. Esto incluía un importante análisis de la teoría de colas aplicada a las redes de comunicaciones (publicado como libro en 1964). Su trabajo aún no incluía la idea de fragmentación en paquetes.
Por último, Donal Davies, del Laboratorio Nacional de Física comenzó a relacionar todos estos conceptos en 1965, después de asistir a una conferencia en el Reino Unido sobre multiplexación en el tiempo. Su investigación tuvo lugar independientemente de los trabajos de Baran, de los que no tuvo conocimiento hasta 1966. Casualmente, fue Davies quien empezó a usar el término "paquete".
En este estado de las cosas, cuatro centros de investigación independientes (DARPA, la corporación RAND, el MIT y NPL en el Reino Unido) acabarían convirtiéndose en los primeros nodos experimentales de ARPANET.
Mientras todo esto ocurría, ARPA y Taylor seguían interesados en crear una red de ordenadores. Al final de 1966, Taylor contactó a Lawrence G. Roberts (del Laboratorio Lincoln, en el MIT) con el objeto de que liderase el proyecto de creación de la nueva red. Roberts ya conocía a Davies gracias a la mencionada conferencia sobre multiplexación en el tiempo.
El concepto original de Roberts consistía en utilizar la técnica de multiplexación en el tiempo, uniendo máquinas directamente con cables telefónicos. En una de las primeras reuniones (de 1967), muchos participantes no estaban dispuestos a que sus computadoras tuvieran que gestionar líneas telefónicas. Uno de estos participantes, Wesley A. Clark, tuvo la idea de usar pequeños ordenadores separados sólo para gestionar los enlaces de comunicaciones. Esta idea permitió descargar de trabajo a las computadoras principales, además de aislar la red de la distinta naturaleza de cada computadora.
Sobre esta base comenzó el diseño inicial de ARPANET. Roberts presentó su primer plan en un simposio de 1967. En este mismo evento se encontraba presente Roger Scantlebury, colaborador de Davies. Gracias a este encuentro discutieron la idea de la conmutación de paquetes, y permitió a Roberts conocer el trabajo de Baran.
En el verano de 1968 ya existía un plan completo y aprobado por ARPA. De manera que se celebró un concurso con 140 potenciales proveedores. Sin embargo, solamente 12 de ellos presentaron propuestas. En 1969, el contrato se adjudicó a BBN (donde había trabajado Lickliderel, creador del concepto de Red Galáctica).
La oferta de BBN seguía el plan de Roberts rapidamente. Los pequeños ordenadores se denominaron Procesadores del interfaz de mensajes (IMPs). Éstos implementaban la técnica de almacenar y reenviar y utilizaban un modem telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo). Los ordenadores centrales se conectaban a los IMPs mediante interfaces serie a medida.
Los IMP se implementaron inicialmente con ordenadores DDP-516 de Honeywell. Contaban con 24 kilobytes de memoria principal con capacidad para conectar un máximo de cuatro ordenadores centrales, y comunicarlos con otros seis IMP remotos. BBN tuvo disponible todo el hardware y el software necesario en tan sólo nueve meses.
La ARPANET inicial consistía en cuatro IMPs instalados en:
UCLA, donde Kleinrock creó el Centro de medición de red. Un ordenador SDS Sigma 7 fue el primero en conectarse.
El Augmentation Research Center en el Instituto de investigación de Stanford, donde Doug Engelbart creó el novedoso sistema NLS, un incipiente sistema de hipertexto. Un ordenador SDS 940 fue el primero en conectarse.
La Universidad de California, con un IBM 360.
El Departamento Gráfico de la Universidad de Utah, donde Ivan Sutherland se trasladó. Con un PDP-10 inicialmente conectado.
El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre UCLA y Stanford. el 5 de diciembre del mismo año, toda la red inicial estaba lista.
En marzo de 1970 ARPANET cruzó hasta la costa Este cuando la propia BBN se unió a la red. En 1971 ya existían 23 ordenadores conectados, pertenecientes a universidades y centros de investigación. Este número creció hasta 213 ordenadores en 1981 con una nueva incorporación cada 20 días en media.
En 1972, Ray Tomlinson de la BBN inventó el correo electrónico. En 1973, el protocolo FTP ya estaba definido e implementado, facilitando el movimiento de ficheros en ARPANET. Para entonces el 75% del tráfico ya se debía al éxito del correo electrónico. También se especificó un protocolo para transmisión de voz (RFC 741), que llegó a implementarse pero fue un fracaso por motivos técnicos. Esto no vería la luz hasta varias décadas más tarde.
El mito de que ARPANET se construyó para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet)
MODELO DE NEWMAN
DESCRIPCIÓN DEL MODELO DE VON NEWMAN
La arquitectura Von Newman se refiere a las arquitecturas de computadoras que utilizan el mismo dispositivo de almacenamiento tanto para las intrucciones como para los datos (a diferencia de la arquitectura Harvard). El término se acuñó en el documento First Draft of a Report on the EDVAC (1945), escrito por el conocido matemático John von Neumann, que propuso el concepto de programa almacenado. Dicho documento fue redactado en vistas a la construcción del sucesor de la computadora ENIAC, y su contenido fue desarrollado por Presper Eckert, John Mauchly, Arthur Burks, y otros durante varios meses antes de que Von Neumann redactara el borrador del informe.
Los ordenadores con arquitectura Von Neumann constan de cinco partes: La unidad aritmético-lógica o ALU, la unidad de control, la memoria, un dispositivo de entrada/salida y el bus de datos que proporciona un medio de transporte de los datos entre las distintas partes.
La arquitectura Von Newman se refiere a las arquitecturas de computadoras que utilizan el mismo dispositivo de almacenamiento tanto para las intrucciones como para los datos (a diferencia de la arquitectura Harvard). El término se acuñó en el documento First Draft of a Report on the EDVAC (1945), escrito por el conocido matemático John von Neumann, que propuso el concepto de programa almacenado. Dicho documento fue redactado en vistas a la construcción del sucesor de la computadora ENIAC, y su contenido fue desarrollado por Presper Eckert, John Mauchly, Arthur Burks, y otros durante varios meses antes de que Von Neumann redactara el borrador del informe.
Los ordenadores con arquitectura Von Neumann constan de cinco partes: La unidad aritmético-lógica o ALU, la unidad de control, la memoria, un dispositivo de entrada/salida y el bus de datos que proporciona un medio de transporte de los datos entre las distintas partes.
Un ordenador con arquitectura Von Newman realiza o emula los siguientes pasos secuencialmente:
1.- Obtiene la siguiente instrucción desde la memoria en la dirección indicada por el contador de programa y la guarda en el registro de instrucción.
2.- Aumenta el contador de programa en la longitud de la instrucción para apuntar a la siguiente.
3.- Descodifica la instrucción mediante la unidad de control. Ésta se encarga de coordinar el resto de componentes del ordenador para realizar una función determinada.
4.- Se ejecuta la instrucción. Ésta puede cambiar el valor del contador del programa, permitiendo así operaciones repetitivas. El contador puede cambiar también cuando se cumpla una cierta condición aritmética, haciendo que el ordenador pueda 'tomar decisiones', que pueden alcanzar cualquier grado de complejidad, mediante la aritmética y lógica anteriores.
5.- Vuelve al paso 1.
Hoy en día, la mayoría de ordenadores están basados en esta arquitectura, aunque pueden incluir otros dispositivos adicionales, (por ejemplo, para gestionar las interrupciones de dispositivos externos como ratón, teclado, etc).
1.- Obtiene la siguiente instrucción desde la memoria en la dirección indicada por el contador de programa y la guarda en el registro de instrucción.
2.- Aumenta el contador de programa en la longitud de la instrucción para apuntar a la siguiente.
3.- Descodifica la instrucción mediante la unidad de control. Ésta se encarga de coordinar el resto de componentes del ordenador para realizar una función determinada.
4.- Se ejecuta la instrucción. Ésta puede cambiar el valor del contador del programa, permitiendo así operaciones repetitivas. El contador puede cambiar también cuando se cumpla una cierta condición aritmética, haciendo que el ordenador pueda 'tomar decisiones', que pueden alcanzar cualquier grado de complejidad, mediante la aritmética y lógica anteriores.
5.- Vuelve al paso 1.
Hoy en día, la mayoría de ordenadores están basados en esta arquitectura, aunque pueden incluir otros dispositivos adicionales, (por ejemplo, para gestionar las interrupciones de dispositivos externos como ratón, teclado, etc).
SISTEMAS PARA LA QUINTA GENERACION DE COMPUTADORAS
Un sistema es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas (hechos sobre objetos, así como situaciones e información sobre el seguimiento de una acción para resolver un problema).
Ejemplos de sistemas:
Diagnósticos
Reparación de equipos
Análisis de inversiones
Planeamiento financiero
Elección de rutas para vehículos
Ofertas de contrato
Asesoramiento para clientes de autoservicio
Control de producción y entrenamientos
Novasoft Server
Ejemplos de sistemas:
Diagnósticos
Reparación de equipos
Análisis de inversiones
Planeamiento financiero
Elección de rutas para vehículos
Ofertas de contrato
Asesoramiento para clientes de autoservicio
Control de producción y entrenamientos
Novasoft Server
Microcomputadora
Una microcomputadora es una computadora que tiene un microprocesador (unidad central de procesamiento).
Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel 4004, que salió el 15 de noviembre de 1971.
Desde el lanzamiento de la computadora personal de IBM, el IBM PC, el término computadora personal se aplica a las microcomputadora orientados a los consumidores. La primera generación de microcomputadora fue conocida también como computadoras domésticas. Se puede encontrar más información en las secciones correspondientes.
Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta de trabajo.. Sus principales características son:
Velocidad de procesamiento: Decenas de millones de instrucciones por segundo.
Usuario a la vez: Uno (Por eso se llaman Personales).
Tamaño: Pequeña, o portátiles.
Facilidad de uso: Supuestamente fáciles de usar.
Clientes usuales: Pequeñas empresas, oficinas, escuelas, individuos.
Penetración social: Mediana.
Impacto social: Alto, en los países industrializados.
Parque instalado: Cientos de millones en el mundo.
Costo: Pocos miles de dólares estadounidenses.
Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel 4004, que salió el 15 de noviembre de 1971.
Desde el lanzamiento de la computadora personal de IBM, el IBM PC, el término computadora personal se aplica a las microcomputadora orientados a los consumidores. La primera generación de microcomputadora fue conocida también como computadoras domésticas. Se puede encontrar más información en las secciones correspondientes.
Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta de trabajo.. Sus principales características son:
Velocidad de procesamiento: Decenas de millones de instrucciones por segundo.
Usuario a la vez: Uno (Por eso se llaman Personales).
Tamaño: Pequeña, o portátiles.
Facilidad de uso: Supuestamente fáciles de usar.
Clientes usuales: Pequeñas empresas, oficinas, escuelas, individuos.
Penetración social: Mediana.
Impacto social: Alto, en los países industrializados.
Parque instalado: Cientos de millones en el mundo.
Costo: Pocos miles de dólares estadounidenses.
Minicomputadora
Actualmente más conocidos como servidores, la conjunción con terminales tontos sin capacidad de cálculo propia
El declive tuvo lugar debido al menor coste del soporte físico basado en microprocesadores y el deseo de los usuarios finales de depender menos de los inflexibles terminales tontos, con el resultado de que los minicomputadoras y los falsos terminales fueron remplazados por computadoras personales interconectados entre sí y con un servidor.
El cambio fue facilitado no solo por el microprocesador, sino también por el desarrollo de varias versiones de Unix multiplataforma (con microprocesadores Intel incluidos) como Solaris, Linux y FreeBSD. La serie de sistemas operativos Microsoft Windows, a partir de Windows NT, también incluye versiones de servidor que soportan multitareas y otras funciones para servidores.
Como ejemplo de lo explicado, Hewlett-Packard se refiere ahora a su serie de minicomputadoras HP3000 como servidores.
El declive tuvo lugar debido al menor coste del soporte físico basado en microprocesadores y el deseo de los usuarios finales de depender menos de los inflexibles terminales tontos, con el resultado de que los minicomputadoras y los falsos terminales fueron remplazados por computadoras personales interconectados entre sí y con un servidor.
El cambio fue facilitado no solo por el microprocesador, sino también por el desarrollo de varias versiones de Unix multiplataforma (con microprocesadores Intel incluidos) como Solaris, Linux y FreeBSD. La serie de sistemas operativos Microsoft Windows, a partir de Windows NT, también incluye versiones de servidor que soportan multitareas y otras funciones para servidores.
Como ejemplo de lo explicado, Hewlett-Packard se refiere ahora a su serie de minicomputadoras HP3000 como servidores.
Supercomputadora
Supercomputadora o Superordenador es una computadora con capacidades de cálculo muy superiores a las comúnmente disponibles de las máquinas de escritorio de la misma época en que fue construida.
Hoy en día el diseño de Supercomputadoras se sustenta en 4 importantes tecnologías:
La tecnología de registros vectoriales, creada por Cray, considerado el padre de la Supercomputación, quien inventó y patentó diversas tecnologías que condujeron a la creación de máquinas de computación ultra-rápidas. Esta tecnología permite la ejecución de innumerables operaciones aritméticas en paralelo.
El sistema conocido como M.P.P. por las siglas de Massively Parallel Processors o Procesadores Masivamente Paralelos, que consiste en la utilización de cientos y a veces miles de microprocesadores estrechamente coordinados.
La tecnología de computación distribuida: los clusters de computadoras de uso general y relativo bajo costo, interconectados por redes locales de baja latencia y el gran ancho de banda.
Cuasi-Supercómputo: Recientemente, con la popularización de Internet, han surgido proyectos de computación distribuida en los que software especiales aprovechan el tiempo ocioso de miles de ordenadores personales para realizar grandes tareas por un bajo costo. A diferencia de las tres últimas categorías, el software que corre en estas plataformas debe ser capaz de dividir las tareas en bloques de cálculo independientes que no se ensamblaran ni comunicarán por varias horas. En esta categoría destacan BOINC y Folding@home.
Por su alto costo, el uso de superordenadores verdaderos está limitado a organismos gubernamentales, militares y grandes centros de investigación, en donde tienen aplicaciones científicas, como en la simulación de procesos naturales (previsión del tiempo, análisis de cambios climáticos, entre otros procesos), modelaje molecular, simulaciones físicas como túneles de viento, criptoanálisis, etc.
Este tipo de máquinas generalmente tiene su arquitectura proyectada y optimizada enteramente con la aplicación final en mente.
Una supercomputadora es un tipo de computadora muy potente y rápida, diseñada para procesar enormes cantidades de información en poco tiempo y dedicada a una tarea específica.
Por eso son las más caras, su precio alcanza los 20 millones de euros o más (30 millones de dólares); y cuentan con un control de temperatura especial, para disipar el calor que algunos componentes llegan a alcanzar.
Solo países como EEUU y Japón, han presentado supercomputadoras de un petaflops,1000 Teraflops, China ha presentado supercomputadora de más de 10 Teraflops, India y Francia también intentan alcanzar el teraflops.
Científicos estadounidenses mostraron el 9 de junio de 2008 la computadora más rápida del mundo, capaz de realizar 1,000 billones de cálculos por segundo, y cuyo propósito central será trabajar con armas nucleares. Para dar una idea de la velocidad de la supercomputadora, expertos de IBM señalaron que si cada uno de los 6,000 millones de habitantes del planeta usaran una computadora personal y trabajaran 24 horas por día, tardarian 46 años en hacer lo que Roadrunner hace en un solo día.
La supercomputadora, que costó $100 millones, fue diseñada por ingenieros del Laboratorio Nacional de Los Alamos y por IBM Corporation. Una de las tareas de la computadora, bautizada ``Roadrunner (Correcaminos) consistirá en simular explosiones atómicas. Roadrunner es dos veces más rápida que el sistema Blue Gene de IBM en el Laboratorio Nacional Lawrence Livermore, la cual, a su vez, es tres veces más rápida que cualquier otra supercomputadora del mundo, según IBM. De acuerdo con Thomas D'Agostino, presidente de la Administración Nacional de Seguridad Nuclear, que supervisa la investigación de armas atómicas y mantiene el arsenal nuclear de Estados Unidos, "La computadora es un demonio de la velocidad. Nos permite resolver problemas tremendos.
Pero los funcionarios aseguraron que la supercomputadora podría ser aplicada en tareas civiles, como ingeniería, medicina y ciencia. Eso incluye el desarrollo de biocombustibles y el diseño de vehículos que gasten menos combustible. Ingenieros de IBM y del laboratorio de Los Alamos trabajaron seis años en la tecnología de la computadora. Algunos elementos de Roadrunner tienen como antecedentes videojuegos populares, de acuerdo con David Turek, vicepresidente del programa de supercomputadoras de IBM. En cierta forma, se trata "de una versión superior de Sony PlayStation 3, indicó. "Tomamos el diseño básico del chip (de PlayStation) y mejoramos su capacidad, informó Turek.
Sin embargo, la supercomputadora Roadrunner difícilmente pueda asemejarse a un videojuego. El sistema de interconexión ocupa 557 metros cuadrados (6,000 pies cuadrados) de espacio. Cuenta con 91,7 kilómetros (57 millas) de fibra óptica y pesa 226.800 kilos (medio millón de libras). La supercomputadora está en el laboratorio de investigaciones de IBM en Poughkeepsie, Nueva York y será trasladada en julio del 2008 al Laboratorio Nacional Los Alamos, en Nuevo México.
Características
Las principales son:
Velocidad de Proceso: Miles de millones de instrucciones de punto flotante por segundo.
Usuarios a la vez: Hasta miles, en entorno de redes amplias.
Tamaño: Requieren instalaciones especiales y aire acondicionado industrial.
Dificultad de uso: Solo para especialistas.
Clientes usuales: Grandes centros de investigación.
Penetración social: Prácticamente nula.
Impacto social: Muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número Phi, desarrollar cálculos de problemas físicos dejando un bajo margen de error, etc.
Parques instalados: Menos de un millar en todo el mundo.
Costo: Hasta decenas de millones de euros cada una.
Hoy en día el diseño de Supercomputadoras se sustenta en 4 importantes tecnologías:
La tecnología de registros vectoriales, creada por Cray, considerado el padre de la Supercomputación, quien inventó y patentó diversas tecnologías que condujeron a la creación de máquinas de computación ultra-rápidas. Esta tecnología permite la ejecución de innumerables operaciones aritméticas en paralelo.
El sistema conocido como M.P.P. por las siglas de Massively Parallel Processors o Procesadores Masivamente Paralelos, que consiste en la utilización de cientos y a veces miles de microprocesadores estrechamente coordinados.
La tecnología de computación distribuida: los clusters de computadoras de uso general y relativo bajo costo, interconectados por redes locales de baja latencia y el gran ancho de banda.
Cuasi-Supercómputo: Recientemente, con la popularización de Internet, han surgido proyectos de computación distribuida en los que software especiales aprovechan el tiempo ocioso de miles de ordenadores personales para realizar grandes tareas por un bajo costo. A diferencia de las tres últimas categorías, el software que corre en estas plataformas debe ser capaz de dividir las tareas en bloques de cálculo independientes que no se ensamblaran ni comunicarán por varias horas. En esta categoría destacan BOINC y Folding@home.
Por su alto costo, el uso de superordenadores verdaderos está limitado a organismos gubernamentales, militares y grandes centros de investigación, en donde tienen aplicaciones científicas, como en la simulación de procesos naturales (previsión del tiempo, análisis de cambios climáticos, entre otros procesos), modelaje molecular, simulaciones físicas como túneles de viento, criptoanálisis, etc.
Este tipo de máquinas generalmente tiene su arquitectura proyectada y optimizada enteramente con la aplicación final en mente.
Una supercomputadora es un tipo de computadora muy potente y rápida, diseñada para procesar enormes cantidades de información en poco tiempo y dedicada a una tarea específica.
Por eso son las más caras, su precio alcanza los 20 millones de euros o más (30 millones de dólares); y cuentan con un control de temperatura especial, para disipar el calor que algunos componentes llegan a alcanzar.
Solo países como EEUU y Japón, han presentado supercomputadoras de un petaflops,1000 Teraflops, China ha presentado supercomputadora de más de 10 Teraflops, India y Francia también intentan alcanzar el teraflops.
Científicos estadounidenses mostraron el 9 de junio de 2008 la computadora más rápida del mundo, capaz de realizar 1,000 billones de cálculos por segundo, y cuyo propósito central será trabajar con armas nucleares. Para dar una idea de la velocidad de la supercomputadora, expertos de IBM señalaron que si cada uno de los 6,000 millones de habitantes del planeta usaran una computadora personal y trabajaran 24 horas por día, tardarian 46 años en hacer lo que Roadrunner hace en un solo día.
La supercomputadora, que costó $100 millones, fue diseñada por ingenieros del Laboratorio Nacional de Los Alamos y por IBM Corporation. Una de las tareas de la computadora, bautizada ``Roadrunner (Correcaminos) consistirá en simular explosiones atómicas. Roadrunner es dos veces más rápida que el sistema Blue Gene de IBM en el Laboratorio Nacional Lawrence Livermore, la cual, a su vez, es tres veces más rápida que cualquier otra supercomputadora del mundo, según IBM. De acuerdo con Thomas D'Agostino, presidente de la Administración Nacional de Seguridad Nuclear, que supervisa la investigación de armas atómicas y mantiene el arsenal nuclear de Estados Unidos, "La computadora es un demonio de la velocidad. Nos permite resolver problemas tremendos.
Pero los funcionarios aseguraron que la supercomputadora podría ser aplicada en tareas civiles, como ingeniería, medicina y ciencia. Eso incluye el desarrollo de biocombustibles y el diseño de vehículos que gasten menos combustible. Ingenieros de IBM y del laboratorio de Los Alamos trabajaron seis años en la tecnología de la computadora. Algunos elementos de Roadrunner tienen como antecedentes videojuegos populares, de acuerdo con David Turek, vicepresidente del programa de supercomputadoras de IBM. En cierta forma, se trata "de una versión superior de Sony PlayStation 3, indicó. "Tomamos el diseño básico del chip (de PlayStation) y mejoramos su capacidad, informó Turek.
Sin embargo, la supercomputadora Roadrunner difícilmente pueda asemejarse a un videojuego. El sistema de interconexión ocupa 557 metros cuadrados (6,000 pies cuadrados) de espacio. Cuenta con 91,7 kilómetros (57 millas) de fibra óptica y pesa 226.800 kilos (medio millón de libras). La supercomputadora está en el laboratorio de investigaciones de IBM en Poughkeepsie, Nueva York y será trasladada en julio del 2008 al Laboratorio Nacional Los Alamos, en Nuevo México.
Características
Las principales son:
Velocidad de Proceso: Miles de millones de instrucciones de punto flotante por segundo.
Usuarios a la vez: Hasta miles, en entorno de redes amplias.
Tamaño: Requieren instalaciones especiales y aire acondicionado industrial.
Dificultad de uso: Solo para especialistas.
Clientes usuales: Grandes centros de investigación.
Penetración social: Prácticamente nula.
Impacto social: Muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número Phi, desarrollar cálculos de problemas físicos dejando un bajo margen de error, etc.
Parques instalados: Menos de un millar en todo el mundo.
Costo: Hasta decenas de millones de euros cada una.
VLSI
Acrónimo inglés de Very Large Scale Integration, integración en escala muy grande.
La integración en escala muy grande de sistemas de circuitos basados en transistores en circuitos integrados comenzó en los años 1980, como parte de las tecnologías de semiconductores y comunicación que se estaban desarrollando.
Los primeros chip semiconductores contenían sólo un transistor cada uno. A medida que la tecnología de fabricación fue avanzando, se agregaron más y más transistores, y en consecuencia más y más funciones fueron integradas en un mismo chip. El microprocesador es un dispositivo VLSI.
La primera generación de computadoras dependía de válvulas de vacío. Luego vinieron los semiconductores discretos, seguidos de circuitos integrados. Los primeros CIs contenían un pequeño número de dispositivos, como diodos, transistores, resistencias y capacitores (aunque no inductores), haciendo posible la fabricación de compuertas lógicas en un solo chip. La cuarta generación (LSI) consistía de sistemas con al menos mil compuertas lógicas. El sucesor natural del LSI fue VLSI (varias decenas de miles de compuertas en un solo chip). Hoy en día, los microprocesadores tienen varios millones de compuertas en el mismo chip.
Hacia pricipios de 2006 se están comercializando microprocesadores con tecnología de hasta 65 nm, y se espera en un futuro cercano el advenimiento de los 45 nm.
La integración en escala muy grande de sistemas de circuitos basados en transistores en circuitos integrados comenzó en los años 1980, como parte de las tecnologías de semiconductores y comunicación que se estaban desarrollando.
Los primeros chip semiconductores contenían sólo un transistor cada uno. A medida que la tecnología de fabricación fue avanzando, se agregaron más y más transistores, y en consecuencia más y más funciones fueron integradas en un mismo chip. El microprocesador es un dispositivo VLSI.
La primera generación de computadoras dependía de válvulas de vacío. Luego vinieron los semiconductores discretos, seguidos de circuitos integrados. Los primeros CIs contenían un pequeño número de dispositivos, como diodos, transistores, resistencias y capacitores (aunque no inductores), haciendo posible la fabricación de compuertas lógicas en un solo chip. La cuarta generación (LSI) consistía de sistemas con al menos mil compuertas lógicas. El sucesor natural del LSI fue VLSI (varias decenas de miles de compuertas en un solo chip). Hoy en día, los microprocesadores tienen varios millones de compuertas en el mismo chip.
Hacia pricipios de 2006 se están comercializando microprocesadores con tecnología de hasta 65 nm, y se espera en un futuro cercano el advenimiento de los 45 nm.
Suscribirse a:
Entradas (Atom)