Las computadoras electrónicas modernas son una herramienta esencial en muchas áreas: industria, gobierno, ciencia, educación,..., en realidad en casi todos los campos de nuestras vidas.
El papel que juegan los dispositivos periféricos de la computadora es esencial; sin tales dispositivos ésta no sería totalmente útil. A través de los dispositivos periféricos podemos introducir a la computadora datos que nos sea útiles para la resolución de algún problema y por consiguiente obtener el resultado de dichas operaciones, es decir; poder comunicarnos con la computadora.
La computadora necesita de entradas para poder generar salidas y éstas se dan a través de dos tipos de dispositivos periféricos existentes:
• Dispositivos periféricos de entrada.
• Dispositivos periféricos de salida.
•DISPOSITIVOS:
Los dispositivos son regímenes definibles, con sus variaciones y transformaciones. Presentan líneas de fuerza que atraviesan umbrales en función de los cuales son estéticos, científicos, políticos, etc. Cuando la fuerza en un dispositivo en lugar de entrar en relación lineal con otra fuerza, se vuelve sobre sí misma y se afecta, no se trata de saber ni de poder, sino de un proceso de individuación relativo a grupos o personas que se sustrae a las relaciones de fuerzas establecidas como saberes constituidos.
•LOS DISPOSITIVOS DE ENTRADA/SALIDA:
Son aquellos que permiten la comunicación entre la computadora y el usuario.
•DISPOSITIVOS DE ENTRADA:
Son aquellos que sirven para introducir datos a la computadora para su proceso. Los datos se leen de los dispositivos de entrada y se almacenan en la memoria central o interna. Los dispositivos de entrada convierten la información en señales eléctricas que se almacenan en la memoria central.
Los dispositivos de entrada típicos son los teclados, otros son: lápices ópticos, palancas de mando (joystick), CD-ROM, discos compactos (CD), etc. Hoy en día es muy frecuente que el usuario utilice un dispositivo de entrada llamado ratón que mueve un puntero electrónico sobre una pantalla que facilita la interacción usuario-máquina.
•DISPOSITIVOS DE SALIDA:
Son los que permiten representar los resultados (salida) del proceso de datos. El dispositivo de salida típico es la pantalla o monitor. Otros dispositivos de salida son: impresoras (imprimen resultados en papel), trazadores gráficos (plotters), bocinas, entre otros...
TIPOS DE DISPOSITIVOS:
ENTRADA:
A.Mouse:
La función principal del ratón es transmitir los movimientos de nuestra mano sobre una superficie plana hacia el ordenador. Allí, el software denominado driver se encarga realmente de transformarlo a un movimiento del puntero por la pantalla dependiendo de varios parámetros.
En el momento de activar el ratón, se asocia su posición con la del cursor en la pantalla. Si desplazamos sobre una superficie el ratón, el cursor seguirá dichos movimientos. Es casi imprescindible en aplicaciones dirigidas por menús o entornos gráficos, como por ejemplo Windows, ya que con un pulsador adicional en cualquier instante se pueden obtener en programa las coordenadas (x, y) donde se encuentra el cursor en la pantalla, seleccionando de esta forma una de las opciones de un menú.
Hay cuatro formas de realizar la transformación y por tanto cuatro tipos de ratones:
•Mecánicos: Son los más utilizados por su sencillez y bajo coste. Se basan en una bola de silicona que gira en la parte inferior del ratón a medida que desplazábamos éste. Dicha bola hace contacto con dos rodillos, uno perpendicular al ratón y otro transversal, de forma que uno recoge los movimientos de la bola en sentido horizontal y el otro en sentido vertical
En cada extremo de los ejes donde están situados los rodillos, existe una pequeña rueda conocida como "codificador", que gira en torno a cada rodillo. Estas ruedas poseen en su superficie, y a modo de radios, una serie de contactos de metal, que a medida que gira la rueda toca con dos pequeñas barras fijas conectadas al circuito integrado en el ratón.
Cada vez que se produce contacto entre el material conductor de la rueda y las barras, se origina una señal eléctrica. Así, el número de se señales indicará la cantidad de puntos que han pasado éstas, lo que implica que, a mayor número de señales, mayor distancia habrá recorrido el ratón. Tras convertir el movimiento en señales eléctricas, se enviaban al software del ordenador por medio del cable.
Figura. Bola y zonas de contacto con los rodillos
Los botones son simples interruptores. Debajo de cada uno de ellos se encuentra un microinterruptor que en estado de "reposo" interrumpe un pequeño circuito. En cuanto se ejerce una ligera presión sobre estos, se activa el circuito, dejando pasar una señal eléctrica que será única en caso de que sólo se haga "clic" con el botón, o continua en caso de dejarlo pulsado.
Por último las señales se dan cita en el pequeño chip que gobierna el ratón, y son enviadas al ordenador a través del cable con los une. Allí el controlador del ratón decidirá, en función del desplazamiento vertical y horizontal detectado, el movimiento final que llevará el cursor. También será capaz de aumentar o disminuir ese movimiento, dependiendo de factores como la resolución que se le haya especificado al ratón.
Figura Esquema general de un ratón mecánico.
•Los ratones opto-mecánicos trabajan según el mismo principio que los mecánicos, pero aquí los cilindros están conectados a codificadores ópticos que emplean pulsos luminosos al ordenador, en lugar de señales eléctricas. El modo de capturar el movimiento es distinto. Los tradicionales rodillos que giran una rueda radiada ahora pueden girar una rueda ranurada, de forma que un haz de luz las atraviesa. De esta forma, el corte intermitente del haz de luz por la rueda es recogido en el otro lado por una célula fotoeléctrica que decide hacia donde gira el ratón y a que velocidad
Figura. Codificadores del ratón.
•Los ratones de ruedas sustituyen la bola giratoria por unas ruedas de material plástico, perpendiculares entre sí, dirigiendo así a los codificadores directamente.
•Los ratones ópticos carecen de bola y rodillos, y poseen unos foto-sensores o sensores ópticos que detectan los cambios en los patrones de la superficie por la que se mueve el ratón. Antiguamente, estos ratones necesitaban una alfombrilla especial, pero actualmente no. Microsoft ha denominado a este sistema IntelliEye en su ratón IntelliMouse y es capaz de explorar el escritorio 1500 veces por segundo, sobre multitud de superficies distintas como madera plástico o tela. La ventaja de estos ratones estriba en su precisión y en la carencia de partes móviles, aunque son lógicamente algo más caros que el resto.
Una característica a tener en cuenta será la resolución, o sensibilidad mínima del sistema de seguimiento: en el momento en que el ratón detecte una variación en su posición, enviará las señales correspondientes al ordenador. La resolución se expresa en puntos por pulgada (ppp). Un ratón de 200 ppp podrá detectar cambios en la posición tan pequeños como 1/200 de pulgada, y así, por cada pulgada que se mueva el ratón, el cursor se desplazará 200 píxeles en la pantalla. El problema es que la relación entre la sensibilidad del movimiento y el movimiento en pantalla es de 1:1 (un desplazamiento equivalente a la sensibilidad mínima provoca un desplazamiento de un píxel en la pantalla); como consecuencia, cuanto mayor sea la resolución del monitor, mayor será el desplazamiento que habrá que imprimir al ratón para conseguir un desplazamiento equivalente en pantalla. Para solucionar este problema los fabricantes desarrollaron el seguimiento dinámico, que permite variar la relación anterior a 1: N, donde N > 1.
Una de las cosas que está cambiando es el medio de transmisión de los datos desde el ratón al ordenador. Se intenta acabar el cable que siempre conduce la información debido a las dificultades que añadía al movimiento. En la actualidad estos están siendo sustituidos por sistemas de infrarrojos o por ondas de radio (como incorpora el Cordless MouseMan Wheel de Logitech). Esta última técnica es mejor, pues los objetos de la mesa no interfieren la comunicación. Los dos botones o interruptores tradicionales han dejado evolucionado a multitud de botones, ruedas, y palancas que están dedicados a facilitar las tareas de trabajo con el ordenador, sobre todo cuando se trabaja con Internet. Hay modelos que no sólo tienen mandos que incorporan las funciones más comunes de los buscadores o navegadores, sino que tienen botones para memorizar las direcciones más visitadas por el usuario. Naturalmente, los fabricantes han aprovechado para poner botones fijos no configurables con direcciones a sus páginas.
La tecnología force-feedback consiste en la transmisión por parte del ordenador de sensaciones a través del periférico. Podremos sentir diferentes sensaciones dependiendo de nuestras acciones. Por ejemplo, si nos salimos de la ventana activa, podremos notar que el ratón se opone a nuestros movimientos. Por supuesto, un campo también interesante para esto son los juegos. En los juegos de golf, se podría llegar a tener sensaciones distintas al golpear la bola dependiendo de si esta se encuentra en arena, hierba, etc... Lamentablemente, este tipo de ratones si se encuentra estrechamente unido a alfombrillas especiales.
Existen dos tipos de conexiones para el ratón: Serie y PS/2. En la práctica no hay ventaja de un tipo de puerto sobre otro.
•Criterios para seleccionar un ratón
El primer criterio será la sencillez a menor número de botones y de mecanismos mayor será la sencillez de su uso. Aunque también para determinados trabajos en los que se precise utilizar de forma continuada el ratón será mejor elegir uno que facilite el trabajo a realizar y que además nos optimice el tiempo. Para ello son muy indicados sobre todos los ratones que poseen la ruedecilla central para que actúe de como scroll.
Otro criterio será el de ergonomía. El ratón deberá estar construido de modo que la mano pueda descansar naturalmente sobre él, alcanzando los dedos los pulsadores de forma cómoda.
Para elegir un ratón USB, al igual que con el teclado, hay que tener instalado el sistema operativo con el suplemento USB o no funcionará. Un ratón USB tiene una ventaja. El ratón PS/2 consume una IRQ (normalmente la IRQ12) y si lo conectas al COM1/2, pierdes un puerto serie (que si no utilizas puedes anular en la BIOS de la placa base y recuperar una IRQ para otros dispositivos). Cierto que el puerto USB también consume una IRQ, pero si te posees HUB USB o tienes otro dispositivo USB (dos dispositivos en 2 puertos USB sin un HUB), con dos (o hasta 128 usando HUBs) dispositivos USB sólo consumes una IRQ, y si lo puedes conectar al puerto USB del teclado, no gastas una IRQ adicional ni el otro puerto USB.
•Tipos de Mouse:
•Mecánico: es una unidad de ingreso de datos equipada con uno o más botones y una pequeña esfera en su parte inferior, del tamaño de una mano y diseñado para trabajar sobre una tabla o mouse-pad ubicada al lado del teclado. Al mover el mouse la esfera rueda y un censor activa la acción.
•Óptico: es el que emplea la luz para obtener sus coordenadas y se desplaza sobre una tabla que contiene una rejilla reflectante, colocada sobre el escritorio.
■Marcas:
Genius, Microsoft, General Electric, Generico
A.Teclado:
Es el dispositivo más común de entrada de datos. Se lo utiliza para introducir comandos, textos y números. Estrictamente hablando, es un dispositivo de entrada y de salida, ya que los LEDs también pueden ser controlados por la máquina.
•Historia del teclado:
Cuando en 1867 Christopher Letham Sholes diseñó la máquina de escribir, la tecnología no estaba muy avanzada, y los primeros prototipos de la máquina de escribir se atascaban constantemente. Había entonces dos caminos para resolver el problema: hacer que la máquina funcione mejor, o que los mecanógrafos funcionen peor.
La disposición de las teclas se remonta a las primeras máquinas de escribir. Aquellas máquinaseran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su sitio antes de que se moviesen los siguientes, de forma que se encallaban. Para que esto ocurriese lo menos posible, el diseñador del teclado QWERTY hizo una distribución de las letras de forma contraria a lo que hubiese sido lógico con base en la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta y los martillos se encallaban menos veces.
Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de los ordenadores personales, que por aquel entonces se encontraban en pleno auge.
•Funciones del teclado:
- Teclado alfanumérico: es un conjunto de 62 teclas entre las que se encuentran las letras, números, símbolos ortográficos, Enter, alt...etc.
- Teclado de Función: es un conjunto de 13 teclas entre las que se encuentran el ESC, tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser configurables pero por ejemplo existe un convenio para asignar la ayuda a F1.
- Teclado Numérico: se suele encontrar a la derecha del teclado alfanumérico y consta de los números así como de un Enter y los operadores numéricos de suma, resta,... etc.
- Teclado Especial: son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2 grupos; uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas.
•Tipos de Teclado:
•De Membrana: Fueron los primeros que salieron y como su propio nombre indica presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un poco más dura.
•Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos traumática y más suave para el usuario.
•Teclado para internet: El nuevo Internet Keyboard incorpora 10 nuevos botones de acceso directo, integrados en un teclado estándar de ergonómico diseño que incluye un apoya manos. Los nuevos botones permiten desde abrir nuestro explorador Internet hasta ojear el correo electrónico. El software incluido, IntelliType Pro, posibilita la personalización de los botones para que sea el teclado el que trabaje como nosotros queramos que lo haga.
•Teclados inalámbricos: Pueden fallar si están mal orientados, pero no existe diferencia con un teclado normal. En vez de enviar la señal mediante cable, lo hacen mediante infrarrojos, y la controladora no reside en el propio teclado, sino en el receptor que se conecta al conector de teclado en el PC. Si queremos conectar a nuestro equipo un teclado USB, primero debemos tener una BIOS que lo soporte y en segundo lugar debemos tener instalado el sistema operativo con el "Suplemento USB". Un buen teclado USB debe tener en su parte posterior al menos un conector USB adicional para poderlo aprovechar como HUB y poder conectar a él otros dispositivos USB como ratones, altavoces, etc
◦Marcas:
-Turbo Tecn
-Microsoft
-Genius
-Benq
-Acer
A.Scanner:
Ateniéndonos a los criterios de la Real Academia de la Lengua, famosa por la genial introducción del término cederrón para denominar al CD-ROM, probablemente nada; para el resto de comunes mortales, digamos que es la palabra que se utiliza en informática para designar a un aparato digitalizador de imagen.
Por digitalizar se entiende la operación de transformar algo analógico (algo físico, real, de precisión infinita) en algo digital (un conjunto finito y de precisión determinada de unidades lógicas denominadas bits). En fin, que dejándonos de tanto formalismo sintáctico, en el caso que nos ocupa se trata de coger una imagen (fotografía, dibujo o texto) y convertirla a un formato que podamos almacenar y modificar con el ordenador. Realmente un escáner no es ni más ni menos que los ojos del ordenador.
•Cómo funciona
El proceso de captación de una imagen resulta casi idéntico para cualquier escáner: se ilumina la imagen con un foco de luz, se conduce mediante espejos la luz reflejada hacia un dispositivo denominado CCD que transforma la luz en señales eléctricas, se transforma dichas señales eléctricas a formato digital en un DAC (conversor analógico-digital) y se transmite el caudal de bits resultante al ordenador.
El CCD (Charge Coupled Device, dispositivo acoplado por carga -eléctrica-) es el elemento fundamental de todo escáner, independientemente de su forma, tamaño o mecánica. Consiste en un elemento electrónico que reacciona ante la luz, transmitiendo más o menos electricidad según sea la intensidad y el color de la luz que recibe; es un auténtico ojo electrónico. Hoy en día es bastante común, puede que usted posea uno sin saberlo: en su cámara de vídeo, en su fax, en su cámara de fotos digital...
La calidadfinal del escaneado dependerá fundamentalmente de la calidad del CCD; los demás elementos podrán hacer un trabajo mejor o peor, pero si la imagen no es captada con fidelidad cualquier operación posterior no podrá arreglar el problema. Teniendo en cuenta lo anterior, también debemos tener en cuenta la calidad del DAC, puesto que de nada sirve captar la luz con enorme precisión si perdemos mucha de esa información al transformar el caudal eléctrico a bits.
Por este motivo se suele decir que son preferibles los escáneres de marcas de prestigio como Nikon o Kodak a otros con una mayor resolución teórica, pero con CCDs que no captan con fidelidad los colores o DACs que no aprovechan bien la señal eléctrica, dando resultados más pobres, más planos.
•La resolución
No podemos continuar la explicación sin definir este término, uno de los parámetros más utilizados (a veces incluso demasiado) a la hora de determinar la calidad de un escáner. La resolución (medida en ppp, puntos por pulgada) puede definirse como el número de puntos individuales de una imagen que es capaz de captar un escáner... aunque en realidad no es algo tan sencillo.
La resolución así definida sería la resolución óptica o real del escáner. Así, cuando hablamos de un escáner con resolución de "300x600 ppp" nos estamos refiriendo a que en cada línea horizontal de una pulgada de largo (2,54 cm) puede captar 300 puntos individuales, mientras que en vertical llega hasta los 600 puntos; como en este caso, generalmente la resolución horizontal y la vertical no coinciden, siendo mayor (típicamente el doble) la vertical.
Esta resolución óptica viene dada por el CCD y es la más importante, ya que implica los límites físicos de calidad que podemos conseguir con el escáner. Por ello, es un método comercial muy típico comentar sólo el mayor de los dos valores, describiendo como "un escáner de 600 ppp" a un aparato de 300x600 ppp o "un escáner de 1.200 ppp" a un aparato de 600x1.200 ppp; téngalo en cuenta, la diferencia es obtener o no el cuádruple de puntos.
Tenemos también la resolución interpolada; consiste en superar los límites que impone la resolución óptica (300x600 ppp, por ejemplo) mediante la estimación matemática de cuáles podrían ser los valores de los puntos que añadimos por software a la imagen. Por ejemplo, si el escáner capta físicamente dos puntos contiguos, uno blanco y otro negro, supondrá que de haber podido captar un punto extra entre ambos sería de algún tono de gris. De esta forma podemos llegar a resoluciones absurdamente altas, de hasta 9.600x9.600 ppp, aunque en realidad no obtenemos más información real que la que proporciona la resolución óptica máxima del aparato. Evidentemente este valor es el que más gusta a los anunciantes de escáneres...
Por último está la propia resolución de escaneado, aquella que seleccionamos para captar una imagen concreta. Su valor irá desde un cierto mínimo (típicamente unos 75 ppp) hasta el máximo de la resolución interpolada. En este caso el valor es siempre idéntico para la resolución horizontal y la vertical, ya que si no la imagen tendría las dimensiones deformadas.
•Los colores y los bits
Al hablar de imágenes, digitales o no, a nadie se le escapa la importancia que tiene el color. Una fotografía en color resulta mucho más agradable de ver que otra en tonos grises; un gráfico acertadamente coloreado resulta mucho más interesante que otro en blanco y negro; incluso un texto en el que los epígrafes o las conclusiones tengan un color destacado resulta menos monótono e invita a su lectura.
Sin embargo, digitalizar los infinitos matices que puede haber en una foto cualquiera no es un proceso sencillo. Hasta no hace mucho, los escáneres captaban las imágenes únicamente en blanco y negro o, como mucho, con un número muy limitado de matices de gris, entre 16 y 256. Posteriormente aparecieron escáneres que podían captar color, aunque el proceso requería tres pasadas por encima de la imagen, una para cada color primario (rojo, azul y verde). Hoy en día la práctica totalidad de los escáneres captan hasta 16,7 millones de colores distintos en una única pasada, e incluso algunos llegan hasta los 68.719 millones de colores.
Para entender cómo se llega a estas apabullantes cifras debemos explicar cómo asignan los ordenadores los colores a las imágenes. En todos los ordenadores se utiliza lo que se denomina sistema binario, que es un sistema matemático en el cual la unidad superior no es el 10 como en el sistema decimal al que estamos acostumbrados, sino el 2. Un bit cualquiera puede por tanto tomar 2 valores, que pueden representar colores (blanco y negro, por ejemplo); si en vez de un bit tenemos 8, los posibles valores son 2 elevado a 8 = 256 colores; si son 16 bits, 2 elevado a 16 = 65.536 colores; si son 24 bits, 2 elevado a 24 = 16.777216 colores; etc, etc.
Por tanto, "una imagen a 24 bits de color" es una imagen en la cual cada punto puede tener hasta 16,7 millones de colores distintos; esta cantidad de colores se considera suficiente para casi todos los usos normales de una imagen, por lo que se le suele denominar color real. La casi totalidad de los escáneres actuales capturan las imágenes con 24 bits, pero la tendencia actual consiste en escanear incluso con más bits, 30 ó incluso 36, de tal forma que se capte un espectro de colores absolutamente fiel al real; sin embargo, casi siempre se reduce posteriormente esta profundidad de color a 24 bits para mantener un tamaño de memoria razonable, pero la calidad final sigue siendo muy alta ya que sólo se eliminan los datos de color más redundantes.
¿Cuánto ocupa una imagen?
Tipo de original
Destino
Método escaneado
Tamaño en RAM
Fotografía 10x15 cm
Pantalla
75 ppp / 24 bits
0,4 MB
Impresora B/N
300 ppp / 8 bits
2 MB
Impresora color
300 ppp / 24 bits
6 MB
Texto o dibujo en blanco y negro tamaño DIN-A4
Pantalla
75 ppp / 1 bit
66 KB
Impresora
300 ppp / 8 bit
8 MB
OCR
300 ppp / 1 bit
1 MB
Foto DIN-A4 en color
Pantalla
75 ppp / 24 bits
1,6 MB
Impresora
300 ppp / 24 bits
25 MB
Tipos de Escáner:
•Flatbed: significa que el dispositivo de barrido se desplaza a lo largo de un documento fijo. En este tipo de escáneres, como las fotocopiadoras de oficina, los objetos se colocan boca abajo sobre una superficie lisa de cristal y son barridos por un mecanismo que pasa por debajo de ellos. Otro tipo de escáner flatbed utiliza un elemento de barrido instalado en una carcasa fija encima del documento.
•Escáner de mano: también llamado hand-held, porque el usuario sujeta el escáner con la mano y lo desplaza sobre el documento. Estos escáneres tienen la ventaja de ser relativamente baratos, pero resultan algo limitados porque no pueden leer documentos con una anchura mayor a 12 o 15 centímetros.
•Lector de código de barras: dispositivo que mediante un haz de láser lee dibujos formados por barras y espacios paralelos, que codifica información mediante anchuras relativas de estos elementos. Los códigos de barras representan datos en una forma legible por el ordenador, y son uno de los medios más eficientes para la captación automática de datos.
Marcas:
Acer, Cannon, Benq, Hewlett Packard (HP), AGFFA
D) webcam
Una cámara web en la simple definición, es una cámara que esta simplemente conectada a la red o INTERNET. Como te puede imaginar tomando esta definición, las cámaras Web pueden tomar diferentes formas y usos.
En la Webcam radica un concepto sencillo; tenga en funcionamiento continuo una cámara de video, obtenga un programa para captar un imagen en un archivo cada determinados segundos o minutos, y cargue el archivo de la imagen en un servidor Web para desplegarla en una página Web.
Unos de los tipos más comunes de cámaras personales que estan conectadas a computadoras del hogar, funcionando con la ayuda de algunos programas usuarios comparten una imagen en movimiento con otros. Dependiendo del usuario y de los programas, estas imagines pueden ser publicadas disponibles en el internet por vía de directorios especificados, o algunos disponibles a los amigos de usuarios que ahora poseen la propia dirección para conectarse. Esas cámaras son típicamente solo cuando los usuarios de las computadoras están encendidos y conectados a Internet. Con el apoyo de un modem DSL y Cable, usuarios viven sus computadoras en más y mejores observadores de web, esto tiene otras complicaciones incluyendo velocidad y seguridad.
Otros tipos comunes de cámara web son las que se basa en una escena en particular, monumento, u otro lugar de interés de visitantes potenciales. Más de estas cámaras estan disponibles 24/7. Puedes tener muchos pequeños conteos de pinturas (imágenes) detrás de otros muchos más excitantes en el tiempo del día, si este es el caso.
Tipos de Cámaras:
•Cámara de fotos digital: Toma fotos con calidad digital, casi todas incorporan una pantalla LCD (Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene una pequeña memoria donde almacena fotos para después transmitirlas a un ordenador.
•Cámara de video: Graba videos como si de una cámara normal se tratara, pero las ventajas que ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD por la que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el video que has grabado, para poder retocarlo posteriormente con el software adecuado.
◦Marcas:
Creative, Genius, Olimpus, General Electric, Canon.
A.Lápiz Óptico:
Dispositivo señalador que permite sostener sobre la pantalla (fotosensible) un lápiz que está conectado al ordenador con un mecanismo de resorte en la punta o en un botón lateral, mediante el cual se puede seleccionar información visualizada en la pantalla. Cuando se dispone de información desplegada, con el lápiz óptico se puede escoger una opción entre las diferentes alternativas, presionándolo sobre la ventana respectiva o presionando el botón lateral, permitiendo de ese modo que se proyecte un rayo láser desde el lápiz hacia la pantalla fotosensible.
El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla.
La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla. El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario.
A.Joystick:
Palanca que se mueve apoyada en una base. Se trata, como el ratón, de un manejador de cursor. Consta de una palanca con una rótula en un extremo, que permite efectuar rotaciones según dos ejes perpendiculares. La orientación de la palanca es detectada por dos medidores angulares perpendiculares, siendo enviada esta información al ordenador. Un programa adecuado convertirá los ángulos de orientación de la palanca en desplazamiento del cursor sobre la misma.
Principalmente existen dos diferentes tipos de joystick: los analógicos y los digitales. Para la construcción de uno analógico se necesitan dos potenciómetros, uno para la dirección X y otro para la dirección Y, que dependiendo de la posición de la palanca de control producen un cambio en la tensión a controlar. Contienen además un convertidor tensión / frecuencia que proporciona los pulsos que se mandan por el puerto según la señal analógica de los potenciómetros. Los digitales no contienen elementos analógicos para obtener las señales de control, sino que los movimientos son definidos por el software de control que incluirá el dispositivo en cuestión.
Sistema de conexión
Van conectados al puerto juegos de la placa, al de la tarjeta de sonido, al puerto o puertos de una tarjeta de juegos, o eventualmente, al puerto serie o paralelo. Aunque la opción del puerto de la tarjeta de sonido es con mucho la más utilizada por ahorro de recursos.
Tecnología
Aquí dependiendo del tipo de joystick que estemos hablando (palanca, joypad, volante, etc) la tecnología utilizada es variopinta. A pesar de ello es útil optar por mandos robustos y que ofrezcan buen soporte de software. Los basados en tecnología digital son ideales para los que requieran precisión.
Muchos joystick permiten de forma sencilla y simplemente mediante el uso de un cable especial (en forma de Y), la utilización de dos dispositivos simultáneos.
Posibles problemas: Lo más frecuente son los provenientes de la mala configuración del software. Estos dispositivos necesitan ser instalados y calibrados mediante los programas incluidos antes de poder ser utilizados.
Figura 2.16. Diagrama de un joystick analógico
Tipos de Joysticks:
•Pads. Se componen de una carcasa de plástico con un mando en forma de cruz para las direcciones y unos botones para las acciones. El control se hace de forma digital: es decir, o pulsas o no pulsas.
•Joystick clásico. Una carcasa de plástico con una palanca con botones de disparo, imitando a las de los aviones. El control en estos joysticks suele ser analógico: cuánto más inclinas la palanca, más rápido responde el juego. Especialmente recomendados para simuladores de vuelo.
•Volantes y pedales. Para juegos de coches.
También hay joysticks 3D, con procesador incorporado (para responder a tus movimientos) e incluso los hay que dan sacudidas y tal cuando te pegan un tiro.
Marcas: Genius, Microsoft...
Dispositivos de salida
a.Monitor o Pantalla:
Es el dispositivo en el que se muestran las imágenes generadas por el adaptador de vídeo del ordenador o computadora. El término monitor se refiere normalmente a la pantalla de vídeo y su carcasa. El monitor se conecta al adaptador de vídeo mediante un cable. Evidentemente, es la pantalla en la que se ve la información suministrada por el ordenador. En el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles es una pantalla plana de cristal líquido (LCD).
•Adaptador: suele tratarse de una placa de circuito impreso (también llamada tarjeta de interfaz) que permite que el ordenador o computadora utilice un periférico para el cual todavía carece de las conexiones o placas de circuito necesarias. Por lo general, los adaptadores se emplean para permitir la ampliación del sistema al hardware nuevo o diferente. En la mayoría de los casos, es un término que se emplea en vídeo, como en los casos de Adaptador de Vídeo Monocromo (MDA), Adaptador para Gráficos Color (CGA) y Adaptador de Gráficos Mejorado (EGA). Es común que una única tarjeta adaptadora contenga más de un adaptador, es decir que maneje más de un elemento de hardware.
•Monitor analógico es un monitor visual capaz de presentar una gama continua (un número infinito) de colores o tonalidades de gris, a diferencia de un monitor digital, que sólo es capaz de presentar un número finito de colores. Un monitor color, a diferencia del monocromo, tiene una pantalla revestida internamente con trifósforo rojo, verde y azul dispuesto en bandas o configuraciones. Para iluminar el trifósforo y generar un punto de color, este monitor suele incluir también tres cañones de electrones, en este caso uno para cada color primario. Para crear colores como el amarillo, el rosado o el anaranjado, los tres colores primarios se mezclan en diversos grados.
•Monitor digital es un monitor de vídeo capaz de presentar sólo un número fijo de colores o tonalidades de gris.
•Monitor monocromo es un monitor que muestra las imágenes en un solo color: negro sobre blanco o ámbar o verde sobre negro. El término se aplica también a los monitores que sólo muestran distintos niveles de gris. Se considera que los monitores monocromos de alta calidad son generalmente más nítidos y más legibles que los monitores de color con una resolución equivalente.
El número de puntos que puede representar el monitor por pantalla, tanto en horizontal como en vertical, se denomina resolución. Cuanto mayor sea la resolución del monitor mejor será la calidad de la imagen en pantalla y ésta debe estar en concordancia con el tamaño del monitor, por lo que en la actualidad no se recomienda un monitor menor de 17" ó 15".
El parámetro que mide la nitidez de la imagen se le denomina tamaño del punto (dot pitch) y mide la distancia entre dos puntos del mismo color. El mínimo exigible en la actualidad es 0,28 mm, no debiéndose admitir nada superior, aunque lo ideal sería de 0,25 mm (o menor). La frecuencia de los monitores es el denominado refresco de pantalla y se mide en Hz (hertzios), que serían equivalentes a los fotogramas por segundo de una película. Realmente quien proporciona estos refrescos es la tarjeta gráfica que tengamos instalada en nuestro ordenador.
Por lo que respecta a los ordenadores portátiles usan pantallas de cristal líquido (LCD). Suele haber de dos tipos: Dual Scan (DSTN) y de Matriz Activa (TFT), que tiene una visualización mucho mejor que la primera.
Tipo del monitor
Resolución en pixels
Número de colores
CGA
320 x 200
4
EGA
640 x 350
16
VGA
640 x 480
320 x 200
16
256
Súper VGA
800 x 600
1024 x 768
256
256
XGA
1024 x 768
65536
Marcas: Philips, Sony, Samsung, Microsoft, Apple…
a.Impresoras:
Como indica su nombre, la impresora es el periférico que el ordenador utiliza para presentar información impresa en papel. Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los monitores, siendo durante años el método más usual para presentar los resultados de los cálculos en aquellos primitivos ordenadores, todo un avance respecto a las tarjetas y cintas perforadas que se usaban hasta entonces.
Aunque en nada se parecen las modernas impresoras a sus antepasadas de aquellos tiempos, no hay duda de que igual que hubo impresoras antes que PCs, las habrá después de éstos, aunque se basen en tecnologías que aún no han sido siquiera inventadas. Resulta muy improbable que los seres humanos abandonemos totalmente el papel por una fría pantalla de ordenador.
Generalidades y definiciones
Antes de adentrarnos en este complejo mundo de las impresoras, vamos a exponer algunos de los conceptos básicos sobre las mismas.
Velocidad
La velocidad de una impresora se suele medir con dos parámetros:
•ppm: páginas por minuto que es capaz de imprimir;
•cps: caracteres (letras) por segundo que es capaz de imprimir.
Actualmente se usa casi exclusivamente el valor de ppm, mientras que el de cps se reserva para las pocas impresoras matriciales que aún se fabrican. De cualquier modo, los fabricantes siempre calculan ambos parámetros de forma totalmente engañosa; por ejemplo, cuando se dice que una impresora de tinta llega a 7 páginas por minuto no se nos advierte de que son páginas con como mucho un 5% de superficie impresa, en la calidad más baja, sin gráficos y descontando el tiempo de cálculo del ordenador.
Resolución
Probablemente sea el parámetro que mejor define a una impresora. La resolución es la mejor o peor calidad de imagen que se puede obtener con la impresora, medida en número de puntos individuales que es capaz de dibujar una impresora.
Se habla generalmente de ppp, puntos por pulgada (cuadrada) que imprime una impresora. Así, cuando hablamos de una impresora con resolución de "600x300 ppp" nos estamos refiriendo a que en cada línea horizontal de una pulgada de largo (2,54 cm) puede situar 600 puntos individuales, mientras que en vertical llega hasta los 300 puntos. Si sólo aparece una cifra ("600 ppp", por ejemplo) suele significar que la resolución horizontal es igual que la vertical.
•El buffer de memoria
Es una pequeña cantidad de memoria que tienen todas las impresoras modernas para almacenar parte de la información que les va proporcionando el ordenador.
De esta forma el ordenador, sensiblemente más rápido que la impresora, no tiene que estar esperándola continuamente y puede pasar antes a otras tareas mientras termina la impresora su trabajo. Evidentemente, cuanto mayor sea el buffer más rápido y cómodo será el proceso de impresión, por lo que algunas impresoras llegan a tener hasta 256 Kb de buffer (en impresoras muy profesionales, incluso varios MB).
•El interfaz o conector
Las impresoras se conectan al PC casi exclusivamente mediante el puerto paralelo, que en muchos sistemas operativos se denomina LPT1 (LPT2 en el caso del segundo puerto paralelo, si existiera más de uno). Como el puerto paralelo original no era demasiado rápido, en la actualidad se utilizan puertos más avanzados como el ECP o el EPP, que son más rápidos y añaden bidireccionalidad a la comunicación (es decir, que la impresora puede "hablarle" al PC, lo que antiguamente era imposible) al tiempo que mantienen la compatibilidad con el antiguo estándar. El método de trabajo del puerto paralelo (estándar, ECP, EPP...) se suele seleccionar en la BIOS del ordenador; para saber cómo hacerlo.
Otras formas menos comunes de conectar una impresora es mediante el puerto serie (el que utilizan los módems externos y muchos ratones; resulta bastante lento), mediante un conector USB (rápido y sencillo, aunque con pocas ventajas frente al puerto paralelo), mediante un dispositivo de infrarrojos (muy útil en el caso de portátiles) o directamente conectados a una red (y no a un ordenador conectado a la misma) en el caso de grandes impresoras para grupos.
•Impresoras GDI o Win-impresoras
GDI son las siglas de Graphical Device Interface, un tipo de tecnología propia de Windows por la cual se pueden fabricar impresoras que cargan parte del trabajo que deberían realizar al ordenador al que están conectadas; por ejemplo, pueden carecer de memoria propia a base de utilizar la RAM del ordenador. Gracias a este sistema se ahorran diversos componentes electrónicos en la fabricación de la impresora, lo que repercute en una bajada de su precio.
Las desventajas de estas impresoras son dos: primeramente, dependen de la potencia del ordenador al que están conectadas, que deberá ser como poco un Pentium rápido con una cantidad generosa de RAM; y además, sólo funcionan en Windows.
Una impresora GDI será siempre un poco más lenta que el modelo equivalente "clásico" (salvo que se tenga un ordenador potente), aparte de cargar bastante al sistema operativo.
•Tipos de impresoras
Si queremos clasificar los diversos tipos de impresoras que existen, el método más lógico es hacerlo atendiendo a su tecnología de impresión, es decir, al método que emplean para imprimir en el papel, e incluir en dicha clasificación como casos particulares otras consideraciones como el uso de color, su velocidad, etc. Eso nos lleva a los tres tipos clásicos: matriciales, de tinta y láser.
Impresoras de impacto (matriciales)
Fueron las primeras que surgieron en el mercado. Se las denomina "de impacto" porque imprimen mediante el impacto de unas pequeñas piezas (la matriz de impresión) sobre una cinta impregnada en tinta, la cual suele ser fuente de muchos problemas si su calidad no es la que sería deseable.
Según cómo sea el cabezal de impresión, se dividen en dos grupos principales: de margarita y de agujas. Las de margarita incorporan una bola metálica en la que están en relieve las diversas letras y símbolos a imprimir; la bola pivota sobre un soporte móvil y golpea a la cinta de tinta, con lo que se imprime la letra correspondiente. El método es absolutamente el mismo que se usa en muchas máquinas de escribir eléctricas, lo único que las diferencia es la carencia de teclado.
Las impresoras de margarita y otros métodos que usan tipos fijos de letra están en completo desuso debido a que sólo son capaces de escribir texto; además, para cambiar de tipo o tamaño de letra deberíamos cambiar la matriz de impresión (la bola) cada vez. Por otra parte, la calidad del texto y la velocidad son muy altas, además de que permiten obtener copias múltiples en papel de autocopia o papel carbón.
Las impresoras de agujas, muchas veces denominadas simplemente matriciales, tienen una matriz de pequeñas agujas que impactan en el papel formando la imagen deseada; cuantas más agujas posea el cabezal de impresión mayor será la resolución, que suele estar entre 150 y 300 ppp, siendo casi imposible superar esta última cifra.
Aunque la resolución no sea muy alta es posible obtener gráficos de cierta calidad, si bien en blanco y negro, no en color. El uso de color implica la utilización de varias cintas más anchas, además de ser casi imposible conseguir una gama realista de colores, más allá de los más básicos.
Al ser impresoras de impacto pueden obtener copias múltiples, lo que las hace especialmente útiles en oficinas o comercios para la realización de listados, facturas, albaranes y demás documentos. Su velocidad en texto es de las más elevadas, aunque a costa de producir un ruido ciertamente elevado, que en ocasiones llega a ser molesto. Resulta muy común encontrarlas con alimentadores para papel continuo, lo que sólo ocurre con algunas impresoras de tinta de precio elevado.
En general, las impresoras matriciales de agujas se posicionan como impresoras de precio reducido, calidad media-baja, escaso mantenimiento y alta capacidad de impresión. Entre los pocos fabricantes que quedan de estas impresoras destaca Epson, con un enorme catálogo con opciones y precios para todos los gustos.
•Impresoras de tinta
Por supuesto, las impresoras matriciales utilizan tinta, pero cuando nos referimos a impresora de tinta nos solemos referir a aquéllas en las que la tinta se encuentra en forma más o menos líquida, no impregnando una cinta como en las matriciales.
La tinta suele ser impulsada hacia el papel por unos mecanismos que se denominan inyectores, mediante la aplicación de una carga eléctrica que hace saltar una minúscula gota de tinta por cada inyector, sin necesidad de impacto. De todas formas, los entresijos últimos de este proceso varían de una a otra marca de impresoras (por ejemplo, Canon emplea en exclusiva lo que denomina "inyección por burbuja") y no son realmente significativos a la hora de adquirir una u otra impresora.
Estas impresoras se destacan por la sencilla utilización del color. La resolución de estas impresoras es en teoría bastante elevada, hasta de 1.440 ppp, pero en realidad la colocación de los puntos de tinta sobre el papel resulta bastante deficiente, por lo que no es raro encontrar que el resultado de una impresora láser de 300 ppp sea mucho mejor que el de una de tinta del doble de resolución. Por otra parte, suelen existir papeles especiales, mucho más caros que los clásicos folios de papelería, para alcanzar resultados óptimos a la máxima resolución o una gama de colores más viva y realista.
El principal destinatario de este tipo de impresoras es el usuario doméstico, además del oficinista que no necesita trabajar con papel continuo ni con copias múltiples pero sí ocasionalmente con color (logotipos, gráficos, pequeñas imágenes...) con una calidad aceptable. Fabricantes existen decenas, desde los clásicos contendientes Epson y Hewlett-Packard (hp) hasta otros de mucho menor volumen de ventas pero que no desmerecen nada, como son Canon, Tektronik, Lexmark, Oki...
Una nota sobre los cartuchos de tinta: son relativamente caros, debido a que generalmente no sólo contienen la tinta, sino parte o la totalidad del cabezal de impresión; este sistema asegura que el cabezal siempre está en buen estado, pero encarece el precio. Existen decenas de sistemas de recarga de cartuchos para rellenar el cartucho aprovechando el cabezal, pero en el 99% de los casos son un engorro y se pone todo perdido de tinta.
◦Impresoras láser
Son las de mayor calidad del mercado, si entendemos por calidad la resolución sobre papel normal que se puede obtener, unos 600 ppp reales. En ellas la impresión se consigue mediante un láser que va dibujando la imagen electrostáticamente en un elemento llamado tambor que va girando hasta impregnarse de un polvo muy fino llamado tóner (como el de fotocopiadoras) que se le adhiere debido a la carga eléctrica. Por último, el tambor sigue girando y se encuentra con la hoja, en la cual imprime el tóner que formará la imagen definitiva.
El único problema de importancia de las impresoras láser es que sólo imprimen en blanco y negro. En realidad, sí existen impresoras láser de color, que dan unos resultados bastante buenos, pero su precio es absolutamente desorbitado.
Los láser son muy resistentes, mucho más rápidas y mucho más silenciosas que las impresoras matriciales o de tinta, y aunque la inversióninicial en una láser es mayor que en una de las otras, el tóner sale más barato a la larga que los cartuchos de tinta, por lo que a la larga se recupera la inversión. Por todo ello, los láser son idóneas para entornos de oficina con una intensa actividad de impresión, donde son más importantes la velocidad, la calidad y el escaso coste de mantenimiento que el color o la inversión inicial.
•Impresoras para fotos
Constituyen una categoría de reciente aparición; usan métodos avanzados como la sublimación o las ceras o tintas sólidas, que garantizan una pureza de color excepcional, si bien con un coste relativamente elevado en cuanto a consumibles y una velocidad baja.
La calidad de estas impresoras suele ser tal, que muchas veces el resultado es indistinguible de una copia fotográfica tradicional, incluso usando resoluciones relativamente bajas como 200 ppp. Sin embargo, son más bien caras y los formatos de impresión no suelen exceder el clásico 10x15 cm, ya que cuando lo hacen los precios suben vertiginosamente y nos encontramos ante impresoras más apropiadas para pruebas de imprenta y autoedición.
•Impresoras de gran formato
Resulta un calificativo tan bueno como cualquier otro para definir a las impresoras, casi exclusivamente de tinta, que imprimen en formatos hasta el A2 (42x59,4 cm). Son impresoras que asocian las ventajas de las impresoras de tinta en cuanto a velocidad, color y resolución aceptables junto a un precio bastante ajustado.
Se utilizan para realizar carteles o pósters, pequeños planos o pruebas de planos grandes, así como cualquier tarea para la que sea apropiada una impresora de tinta de menor formato: cartas, informes, gráficos... Hasta hace poco sólo existían un par de modelos, ahora las hay de Epson, Canon, HP...
•Impresoras para grupos
Son impresoras de gran capacidad, preparadas para funcionar en una red incluso sin depender de un ordenador de la misma. Suelen ser impresoras láser, en ocasiones con soporte para color, con bandejas para 500 hojas o más, velocidades de más de 12 ppm (reales!!) y memoria por encima de 6 MB. Últimamente se tiende a que tengan funciones de fotocopiadora o capacidad para realizar pequeñas tiradas sin necesidad de emplear una fotocopiadora, e incluso clasifican y encuadernan.
Uso
Impresora a utilizar
Características
Textos, copias múltiples, listados, facturas
Matricial
Baratas, bajo mantenimiento, poca resolución
Textos y gráficos en blanco y negro y color
De tinta
Baratas, consumibles algo caros, resolución aceptable
Láser color
Muy caras, muy rápidas, alta resolución; para grandes cargas de trabajo
Textos y gráficos en blanco y negro
Láser blanco y negro
Mayor inversión inicial, menor mantenimiento, alta resolución
Formatos grandes, posters, carteles, planos
De tinta gran formato
Baratas, formatos algo reducidos para planos (A3, A2)
Plotter
Caros, específicos para planos, formatos A1 o A0
Fotografías
Sublimación, ceras sólidas o similar
Caras en consumibles, formato reducido, algo lentas, gran calidad, muy caras en formatos grandes
Grandes cargas de trabajo
Láser color o láser blanco y negro de alta gama
Caras, bajo mantenimiento, alta velocidad y resolución
•Marcas:
Fabricantes existen decenas, desde los clásicos contendientes Epson y Hewlett-Packard (HP) hasta otros de mucho menor volumen de ventas pero que no desmerecen nada, como son Canon, Tektronik, Lexmark, Oki.
C) Plóters.
Un plóter es un dispositivo que conectado a una computadora puede dibujar sobre papel cualquier tipo de gráfico mediante el trazado de líneas gracias a las plumillas retraibles de las que dispone. La limitación fundamental respecto a una impresora está en la menor velocidad del plóter y en lo limitado de los colores que puede ofrecer, que se ven limitados por el número de plumillas, bien es cierto que se pueden crear mezclando puntos de distintas plumillas, pero el proceso alargaría aún más la obtención de resultados.
HPGL es un conjunto de comandos en el ROM de plóters de pluma para reducir el trabajo requerido por los programadores de las aplicaciones que ejecutan salida en ploteo. HPGL usa dos cartas de nemotécnica como instrucciones para dibujar líneas, círculos, texto y símbolos simples.
Existe una desventaja primaria: HPGL es más abultado que otros lenguajes de ploteo lo cual significa que toma más tiempo transmitir un archivo HPGL que en cualquier otro.
•Todos los lenguajes de ploteo tienen dos de formas de límites:
Límites duros y (2) límites blandos. Los límites duros son los límites más allá de que el plóter no puede dibujar debido a limitaciones físicas.
Los límites blandos son impuestos comúnmente por el software de aplicación que genera el archivo de lote. Cualquier parte del dibujo que extiende más allá de los límites (duros o blandos) se corta (no es ploteado).
Por el contrario, son imprescindibles en otros usos como el corte de tela (la computadora, con los patrones memorizados, distribuye las piezas de las prendas por la tela disponible de modo que se aproveche al máximo y mediante un plóter con cuchillas o un láser de alta energía en vez de plumillas efectúa el cortado) o el troquelado de piezas (mediante un proceso idéntico al del corte de tela) en series limitadas en los que la prensa de molde tradicional resulta excesivamente cara.
El funcionamiento de un plóter se controla desde programa. El usuario puede incluir en su programa instrucciones para realizar las representaciones que desee con sus datos.
Los registradores gráficos se fundamentan en el desplazamiento relativo de un cabezal con el elemento de escritura, con respecto al papel. Dependiendo del tipo de gráfico se moverá sólo la cabeza y el papel.
Según la forma en que se realiza el dibujo, los plóters se pueden clasificar en tres tipos:
•Pluma.
•Electrostáticos.
•Inyección
•Plóters de pluma
Los primeros plóters, aún en pleno uso, fueron los de plumillas. Son los que más tardan en realizar un dibujo complejo, pero también son los que ofrecen una calidad y suavidad en las curvas absolutamente perfectas. Normalmente disponen de un soporte para seis u ocho plumillas, del cual el cabezal de dibujo las irá tomando según las necesite.
En los registradores de pluma el dibujo se realiza mediante un cabezal en el que se insertan los elementos de escritura: plumas, bolígrafos o rotuladores. Cada elemento de escritura puede subirse o bajarse hasta entrar en contacto con el papel, todo ello controlado por programa.
Tradicionalmente los plóters se han utilizado para dibujar planos arquitectónicos, de ingeniería, topográficos y todo tipo de dibujos de tipo técnico. Hoy en día, sin embargo, gracias a la proliferación de los programas de diseño artístico, se han instalado varios para realizar el dibujo de líneas de diseños artísticos complejos.
Las plumillas pueden ser de muchos tipos: rotuladores, estilógrafos para papel normal y vegetal, para papel poliéster, plumas de tinta al aceite (para transparencias), etc.
•Plóters electrostáticos
Otro tipo de plóters son los plóters electrostáticos, térmicos o láser. Suelen ser más caros que cualquier otro tipo de trazador y aunque con tecnologías distintas entre sí, todos ellos ofrecen una calidad de dibujo similar. Casi ninguno de ellos dibuja en color, y la calidad del resultado final se asemeja mucho a la impresión de un fax, aunque el tamaño del punto es menor y el trazado resiste mejor el paso del tiempo y la acción de la luz.
La utilidad de los plóters reside en su rapidez, ya que una vez recibido el dibujo que le envía la computadora y tras procesarlo completamente, puede realizar una copia DIN A0 en menos de cinco minutos.
Otra ventaja de estos aparatos es su mantenimiento prácticamente nulo y la posibilidad de funcionamiento durante horas, totalmente desatendido. Su único consumible es la bobina de papel.
•Inyección de tinta.
Un tipo de trazador que está teniendo mucho éxito en los últimos años es el de chorro de tinta. Realmente es una impresora de chorro de tinta de gran formato, y la mayoría de ellos pueden producir impresiones con 16.7 millones de colores. Se les puede llamar plóters, porque son capaces de entender las instrucciones de lenguajes específicos de los plóters (HP-GL, RD-GL, DMPL, etc.), aunque internamente tienen que realizar la conversión de formato vectorial (líneas) a formato ráster (puntos de color).
Su calidad y velocidad es casi idéntica a la de las impresoras de chorro de tinta de sobremesa.
Las áreas efectivas de trazado de estos aparatos van desde el DIN A4 hasta algo más que un DIN A0, con excepción de los plóters de chorro de tinta, que no se suelen fabricar en tamaños inferiores al DIN A1.
•Plóters de corte.
Un plóter de corte es básicamente igual que uno de dibujo. La diferencia estriba en que además de dibujar esta diseñado principalmente para cortar vinilo adhesivo, que es el que utilizan los profesionales de la rotulación para decorar y rotular vehículos, luminosos, o escaparates. Algunos pueden cortar también materiales más gruesos, como cartulina, cartón, etc.
No basta con poner una cuchilla a un plóter de dibujo para convertirlo en uno de corte: un plóter de corte, tiene, entre otras cosas, la circuitería necesaria para controlar la orientación y la posición de la cuchilla.
Fundamentalmente, los plóters de corte pueden ser de mesa o de rodillo; de corte tangencial, de arrastre o de cabezal excéntrico; de arrastre por fricción o por tracción.
Los anchos más comunes son 50, 60 y 120 cm.
De entre todos estos tipos, vale la pena destacar un modelo que por ahora es único en su categoría, que no sólo corta, sino que además imprime sobre vinilo, con una calidad bastante razonable y con una duración a la intemperie y sin protección adicional, de tres años.
De todas formas, un buen programa de corte permite subdividir el rótulo que deseamos cortar y/o imprimir en trozos más pequeños que encajen en las medidas del plóter.
•Corte tangencial.
Los plóters de corte tangencial están equipados con un cabezal de corte avanzado que no sólo gira según corta, sino que también se desplaza arriba y abajo. Esta especial habilidad permite a los plóters cortar pequeños texto y complejas imágenes a alta velocidad con soberbia precisión. Estrechos filos de curvas, esquinas cuadradas y finos remates de letras con serif permanecen nítidos ya que la cuchilla no gira alrededor de los ángulos rectos. El corte tangencial es principalmente utilizado en materiales gruesos, como algunas máscaras de arenado y materiales reflectantes
D) Bocinas:
Algunas bocinas son de mesas, similares a la de cualquier aparato de sonidos y otras son portátiles (audífonos). Existen modelos muy variados, de acuerdo a su diseño y la capacidad en watts que poseen.
◦Tarjeta de sonido
La tarjeta de sonido es la encargada de convertir la información digital procesada por nuestro equipo (1s y 0s) en datos analógicos, o sonidos, para que sean reproducidos por unos altavoces conectados a la propia tarjeta de sonido.
Se encargan de digitalizar las ondas sonoras introducidas a través del micrófono, o convertir los archivos sonoros almacenados en forma digital en un formato analógico para que puedan ser reproducidos por los altavoces.
El sonido 3D que ofrecen algunas tarjetas intenta dar al oyente la impresión de sonido envolvente. En el cine, el Sistema Surround está basado en el uso de varios altavoces situados en diferentes puntos de la sala. Sin embargo, obtener este efecto con sólo dos altavoces es mucho más complejo.
F) Altavoces:
Dispositivos por los cuales se emiten sonidos procedentes de la tarjeta de sonido. Actualmente existen bastantes ejemplares que cubren la oferta más común que existe en el mercado. Se trata de modelos que van desde lo más sencillo (una pareja de altavoces estéreo), hasta el más complicado sistema de Dolby Digital, con nada menos que seis altavoces, pasando por productos intermedios de 4 o 5 altavoces.
•La gran mayoría de las tarjetas de sonido incluyen un amplificador interno de 4W por canal, lo que nos permite conectar a la salida "speakers" de la tarjeta unos altavoces sencillos como los utilizados en el walkman.
A.Auriculares:
Son dispositivos colocados en el oído para poder escuchar lo que la tarjeta de sonido envía. Presentan la ventaja de que no pueden ser escuchados por otra persona, solo la que los utiliza.
•Equipos empleados para audición
Los audífonos son el equipo básico empleado para escuchar los sonidos propios de un ambiente virtual:
Audífonos convencionales
Son los audífonos de uso más corriente, a través de estos se escucha el sonido simulado de los objetos sin identificar auditivamente el punto de ubicación de los mismos.
•Convolvotrón
Estos audífonos además de simular el sonido propio de los objetos, simulan la ubicación de los mismos dentro del ambiente virtual.
H) Fax:
Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida o bien, vía teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel que cuando acaba la impresión se corta.
CONCLUSIÓN.
En síntesis se destacan los dispositivos de entrada y salida como esenciales prácticamente para el funcionamiento y utilización del computador.
Dispositivos de Entrada
Dispositivos de Salida
Dispositivos de entrada- salida:
Envían información a la unidad de procesamiento como:
Teclado: Una serie de teclas agrupadas.
Micrófono: Transmite el sonido que capta al ordenador.
Escáner: Permite imágenes gráficas al computador.
Mouse: Permite a través de un pulsor dar ordenes al computador.
Reciben información procesada por el cpu.
El monitor: Donde se refleja la información (previamente procesada y dentro de un contexto y lenguaje adecuado).
Impresora: Capta la información (plasmada en papel que procesa el cpu)
En la actualidad existen dispositivos que manejan información desde dos puntos, tanto entrada como salida:
Pantalla táctil: Modificada para reconocer la situación de una presión en la superficie logrando hacer una selección o mover el cursor.
Pantallas táctil infrarrojas: Se usa a menudo en entornos sucios, donde la sociedad podría interferir con el modo de operación de otros tipos de pantallas táctiles
RECOMENDACIONES.
Para finalizar con dicha investigación, es importante que se tomen en cuenta y se ponga en práctica algunas recomendaciones:
1.Es importante realizarle un regular mantenimiento a los distintos dispositivos periféricos, si bien algunos lo exigen más que otros, hay que tomar en cuenta que se les debe dar el debido manejo a cada uno de ellos.
2.También es muy importante no exponerlos a temperaturas que puedan interferir con su desempeño y la rapidez con la que estos puedan desarrollar una tarea especifica, ya que el computador es una maquina que funciona a una velocidad superior a la que emplean otros aparatos; por lo tanto, exige una mayor demanda de energía o electricidad para el ejercicio de determinadas funciones.
3.Tratar de no introducir en la máquina disquete o CDS que puedan afectar a la unidad de CD por la existencia de un virus o influir en el desempeño normal de otros dispositivos periféricos como el Mouse, el teclado y el CPU.
GLOSARIO.
KEYBOARD:
Teclado. Conjunto de teclas de entrada. En terminales y computadores personales, el teclado incluye las teclas de una máquina de escribir estándar y varias teclas especiales tales como control, alt y esc, así como las teclas de función.
BIT:
Es la unidad de información más pequeña. Puede tener sólo dos valores o estados: 0 o 1, encendido o apagado. La combinación de estos valores es la base de la informática, ya que los circuitos internos del ordenador sólo son capaces de detectar si la corriente llega o no llega (O o 1). Su nombre proviene de la contracción de las palabras «binary» y «digit» (dígito binario).
JPEG:
(Join Photograph Expert Group). Unión de Grupode Expertos Fotográfico. Formato gráfico con compresión con pérdidas que consigue elevados ratios de comprensión.
CASE:
(Computer Aided Software Engineering). Bajo el término de Ingeniería de Software Asistida por Ordenador se incluyen una serie de herramientas, lenguajes y técnicas de programación que permiten la generación de aplicaciones de manera semiautomática. Las herramientas CASE liberan al programador de parte de su trabajo y aumentan la calidad del programa a la vez que disminuyen sus posibles errores.
ATX:
Reciente formato estándar aparecido en el mercado para placas y cajas que reduce el número de cables y tiene mejor ordenamiento de todos los componentes.Ademas, permite un trabajo más libre en el interior de las maquinas.
GHZ:
(GigaHertZ) Mil millones de ciclos por segundo.
AGP:
(Accelerated Graphics Port). Puerto PCI diseñado especialmente para potenciar la tecnologia 3D aprovechando todas las prestaciones que ofrece el Pentium II.Con un canal exclusivo para que la tarjeta gráfica acceda a la memoria.
DDR:
(Double Data Rate)
(Dial on Demand Routing). Técnica de virtud de la cual el router puede iniciar y cerrar dinámicamente sesiones de conmutación de circuito en la medida que las necesite las estacones transmisoras finales
RPM:
(RedHat Packet Manager) Administrador de paquetes de RedHat. Sistema adoptado por muchas distribuciones para falicitar la instalación de componentes Linux. Los paquetes RPM contienen toda la documentación sobre configuración necesaria para instalar y desinstalar el software.
MHZ:
(Megahertz) Megahertzios. Un millón de hertzios (Hz). Se mide en megahertzios el ancho de banda que puede admitir un monitor y también la velocidad de los microprocesadores.
FLOPPY:
Se conoce por este término inglés a los discos flexibles o disquetes.
USB:
(Universal Serial Bus). Bus serie universal. La característica principal de este bus reside en que los periféricos pueden conectarse y desconectarse con el equipo en marcha, configurándose de forma automática.
Conector externo que llega a transferencias de 12 millones de bits por segundo. Totalmente PnP, sustituirá al puerto serie y paralelo, gracias a la posibilidad de conectar 127 dispositivos
BUS:
Conjunto de dispositivos de conexión utilizados por los distintos componentes de un ordenador para intercambiar datos e información. Se caracterizan por su capacidad y los elementos que unen, clasificándose en bus de direcciones, bus de datos, bus de entrada/salida, etc.
OCER: (Optical Character Recognition). Facultad que tienen ciertos ordenadores para reconocer y procesar caracteres escritos. Se precisa para ello un periférico de entrada de datos con capacidades ópticas y un software específico.
domingo, 11 de octubre de 2009
Arquitectura de la memoria ROM (Read Only Memory)
La arquitectura (estructura) interna de un CI-ROM es muy compleja y no necesitamos conocer todos sus detalles. Sin embargo es constructivo observar un diagrama simplificado de la estructura interna. Existen cuatro partes básicas: decodificador de renglones, arreglo de registros y buffer de salida.
•Arreglo de registros.
El arreglo de registros almacena los datos que han sido programados en la ROM. Cada registro contiene un numero de celdas de memoria que es igual al tamaño de la palabra. En este caso, cada registro almacena una palabra de 8 bits. Los registros se disponen en un arreglo de matriz< cuadrada que es común a muchos circuitos de semiconductor. Podemos especificar la posición de cada registro como una ubicada en un reglon y una columna específicos.
Las 8 salidas de datos de cada registro se conectan a un canal de datos interno que corre atreves de todo el circuito. Cada registro tiene dos entradas de habilitación (E); ambas tienen que ser altas a fin de que los datos del registro sean colocados en el canal.
•Decodificadores de direcciones.
El código de dirección aplicado A3, A2, A1, A0, determina que registro será habilitado para colocar su palabra de datos en 8 bits en el canal. Los bits de dirección A1, A0, se alimentan de un decodificador uno de 4 que activa una línea de selección de renglón, y los bits de dirección
A3, A2, se alimentan de un segundo decodificador uno de cuatro que activa una línea de selección de columna. Solamente un registro estará en el renglón y la columna seleccionados por las entradas de difracción, y estará habilitado.
•Buffer de salida.
El registro habilitado por las entradas de selección coloca el dato que tiene sobre el canal de datos. Estos datos entraran en los buffers de salida mismos que se encargan de trasmitirlos hacia las salidas externas siempre y cuando CS este en bajo. Si CS esta en alto, los buffers de salida se encuentran en el estado de alta impedancia, con lo que D7 asta D0 estarán flotando0
ARQUITECTURA DE LA MEMORIA
(RAM)
Como sucede con la ROM, es útil pensar que la RAM consta de varios registros, cada uno de los cuales almacena una sola palabra de datos y tiene una dirección única. Las RAMS comúnmente vienen con capacidades de palabras de 1K, 4K, 8K, 16K, 64K, 128K, 256K, y 1024K, y tamaños de palabras de 1, 4, u 8 bits. Como veremos mas adelante , la capacidad de las palabras y el tamaño de estas puede extenderse combinando circuios integrados de memoria.
•Operación de lectura.
El código de dirección selecciona un registro del circuito de memoria para leer o escribir. A fin de leer el contenido de registro seleccionado, la entrada lectura/escritura (R/-W)* debe ser un 1. además, la entrada (CS) selección de CI debe ser activada (un 0 de este caso). La combinación de R/-W es igual a 1 y CS es igual a 0 habilita los buffers de salida de manera que el contenido de registro seleccionado aparecerá en las cuatro salidas de datos. R/-W igual a 1 también deshabilita los buffers de entrada de manera que las entradas de datos no afecten la memoria durante la operación de lectura.
•Operación de escritura.
Para escribir una nueva palabra de cuatro bits en el registro seleccionado se requiere que R/-W igual a 0 y CS igual 0. esta combinación habilita los buffers de entrada de manera que la palabra de cuatro bits aplicada a las entradas de datos se cargara en el registro seccionado. R/-W igual a 0 también deshabilita los buffers de salida que son de tres estados, de manera que las salidas de datos se encuentran en el estado de alta-z, durante una operación de escritura. La operación de escritura, desde luego, destruye la palabra que antes estaba almacenada en la dirección.
•Selección de CI.
Muchos circuitos de memoria tienen una o mas entradas CS que se usan para habilitar o deshabilitar el circuito en su totalidad. En el modo deshabilitado todas las salidas y entradas de datos se deshabilitas (alta-z) de manera que no puede tener lugar no la operación de lectura ni de escritura. En este modo en contenido de la memoria no se afecta. La razón para tener entradas CS será mas clara cuando se combinen CI de memoria para tener mayores memorias. Observe que muchos fabricantes llaman a estas entradas CE (habilitación de circuito). Cuando las entradas CS o CE se encuentran en un estado activo, se dice que el CI de memoria a sido seleccionado; de otro modo se dice que no esta seleccionado. Muchos CI de memoria están diseñados para consumir una potencia mucho menor cuando están seleccionados. En sistemas de memoria grandes, para una operación dada de memoria, serán seleccionados una o mas CI de memoria mientras que los demás no.
•Terminales comunes de entrada/ salida.
A fin de conservar terminales en un encapsulado de CI, los fabricantes a menudo combinan los funciones de entradas y salida de datos utilizando terminales comunes de entrada/salida. La entrada R/-W controla la función de estas terminales E/S. Durante una operación de lectura, las terminales de entrada y salida actúan como salida de datos que reproducen el contenido de la localidad de dirección seleccionada. Durante una operación de escritura, las terminales de S/E actúan como entrada de datos. A las cuales se aplican los datos al ser escritos.
ARQUITECTURA DE LA MEMORIA
(EPROM)
•ROM programable y borrable.
Una EPROM puede ser programada por el usuario y también puede borrarse y reprogramarse tantas veces como desee. Una ves programada, la EPROM es una memoria no volátil que contendrá sus datos almacenados indefinidamente. El proceso para programar una EPROM implica la aplicación de niveles de voltaje especiales (comúnmente en un orden de 10 a 25 volts) a las entradas adecuadas del circuito en una cantidad de tiempo especificada (por lo general 50 minutos) por la localidad de dirección. El proceso de programación generalmente es efectuado por un circuito especial de programación que esta separando del circuito en el cual la EPROM eventualmente trabajara. El proceso de programación completo puede llevar barios minutos para un microcircuito EPROM.
En una EPROM las celdas de almacenamiento son transistores MOSFET que tienen una compuerta de cilicio sin ninguna conexión eléctrica (es decir, una compuerta flotante). En un estado normal, cada transistor esta apagado y cada celda guarda un 1 lógico un transistor puede encenderse mediante la aplicación de un curso de programación de alto voltaje, el cual inyecta electrones de alta energía en la región formada por la compuerta flotante. Estos electrones permanecen en esta región una ves que a finalizado el pulso ya que no existe ninguna trayectoria de descarga.
Una ves que sea programado una celda de la EPROM se puede borrar su contenida exponiendo la EPROM a la luz ultravioleta (UV), la cual se aplica a través de la ventana que se encuerta sobre el encapsulado del circuito. La luz (UV) produce una foto corriente que va desde la compuerta flotante hacia el sustrato de cilicio; con esto se apaga el transistor y se lleva de nuevo la celda hacia el estado uno lógico. Este proceso de borrado requiere entre 15 a 20 minutos de exposición a los rayos (UV). Desafortunadamente, no existe ninguna forma de borrar solo algunas celdas; la luz (UV) borra todas las celdas al mismo tiempo por lo que una EPROM barrada almacena solamente unos lógicos. Una ves borrada puede volverse a programar.
•Arreglo de registros.
El arreglo de registros almacena los datos que han sido programados en la ROM. Cada registro contiene un numero de celdas de memoria que es igual al tamaño de la palabra. En este caso, cada registro almacena una palabra de 8 bits. Los registros se disponen en un arreglo de matriz< cuadrada que es común a muchos circuitos de semiconductor. Podemos especificar la posición de cada registro como una ubicada en un reglon y una columna específicos.
Las 8 salidas de datos de cada registro se conectan a un canal de datos interno que corre atreves de todo el circuito. Cada registro tiene dos entradas de habilitación (E); ambas tienen que ser altas a fin de que los datos del registro sean colocados en el canal.
•Decodificadores de direcciones.
El código de dirección aplicado A3, A2, A1, A0, determina que registro será habilitado para colocar su palabra de datos en 8 bits en el canal. Los bits de dirección A1, A0, se alimentan de un decodificador uno de 4 que activa una línea de selección de renglón, y los bits de dirección
A3, A2, se alimentan de un segundo decodificador uno de cuatro que activa una línea de selección de columna. Solamente un registro estará en el renglón y la columna seleccionados por las entradas de difracción, y estará habilitado.
•Buffer de salida.
El registro habilitado por las entradas de selección coloca el dato que tiene sobre el canal de datos. Estos datos entraran en los buffers de salida mismos que se encargan de trasmitirlos hacia las salidas externas siempre y cuando CS este en bajo. Si CS esta en alto, los buffers de salida se encuentran en el estado de alta impedancia, con lo que D7 asta D0 estarán flotando0
ARQUITECTURA DE LA MEMORIA
(RAM)
Como sucede con la ROM, es útil pensar que la RAM consta de varios registros, cada uno de los cuales almacena una sola palabra de datos y tiene una dirección única. Las RAMS comúnmente vienen con capacidades de palabras de 1K, 4K, 8K, 16K, 64K, 128K, 256K, y 1024K, y tamaños de palabras de 1, 4, u 8 bits. Como veremos mas adelante , la capacidad de las palabras y el tamaño de estas puede extenderse combinando circuios integrados de memoria.
•Operación de lectura.
El código de dirección selecciona un registro del circuito de memoria para leer o escribir. A fin de leer el contenido de registro seleccionado, la entrada lectura/escritura (R/-W)* debe ser un 1. además, la entrada (CS) selección de CI debe ser activada (un 0 de este caso). La combinación de R/-W es igual a 1 y CS es igual a 0 habilita los buffers de salida de manera que el contenido de registro seleccionado aparecerá en las cuatro salidas de datos. R/-W igual a 1 también deshabilita los buffers de entrada de manera que las entradas de datos no afecten la memoria durante la operación de lectura.
•Operación de escritura.
Para escribir una nueva palabra de cuatro bits en el registro seleccionado se requiere que R/-W igual a 0 y CS igual 0. esta combinación habilita los buffers de entrada de manera que la palabra de cuatro bits aplicada a las entradas de datos se cargara en el registro seccionado. R/-W igual a 0 también deshabilita los buffers de salida que son de tres estados, de manera que las salidas de datos se encuentran en el estado de alta-z, durante una operación de escritura. La operación de escritura, desde luego, destruye la palabra que antes estaba almacenada en la dirección.
•Selección de CI.
Muchos circuitos de memoria tienen una o mas entradas CS que se usan para habilitar o deshabilitar el circuito en su totalidad. En el modo deshabilitado todas las salidas y entradas de datos se deshabilitas (alta-z) de manera que no puede tener lugar no la operación de lectura ni de escritura. En este modo en contenido de la memoria no se afecta. La razón para tener entradas CS será mas clara cuando se combinen CI de memoria para tener mayores memorias. Observe que muchos fabricantes llaman a estas entradas CE (habilitación de circuito). Cuando las entradas CS o CE se encuentran en un estado activo, se dice que el CI de memoria a sido seleccionado; de otro modo se dice que no esta seleccionado. Muchos CI de memoria están diseñados para consumir una potencia mucho menor cuando están seleccionados. En sistemas de memoria grandes, para una operación dada de memoria, serán seleccionados una o mas CI de memoria mientras que los demás no.
•Terminales comunes de entrada/ salida.
A fin de conservar terminales en un encapsulado de CI, los fabricantes a menudo combinan los funciones de entradas y salida de datos utilizando terminales comunes de entrada/salida. La entrada R/-W controla la función de estas terminales E/S. Durante una operación de lectura, las terminales de entrada y salida actúan como salida de datos que reproducen el contenido de la localidad de dirección seleccionada. Durante una operación de escritura, las terminales de S/E actúan como entrada de datos. A las cuales se aplican los datos al ser escritos.
ARQUITECTURA DE LA MEMORIA
(EPROM)
•ROM programable y borrable.
Una EPROM puede ser programada por el usuario y también puede borrarse y reprogramarse tantas veces como desee. Una ves programada, la EPROM es una memoria no volátil que contendrá sus datos almacenados indefinidamente. El proceso para programar una EPROM implica la aplicación de niveles de voltaje especiales (comúnmente en un orden de 10 a 25 volts) a las entradas adecuadas del circuito en una cantidad de tiempo especificada (por lo general 50 minutos) por la localidad de dirección. El proceso de programación generalmente es efectuado por un circuito especial de programación que esta separando del circuito en el cual la EPROM eventualmente trabajara. El proceso de programación completo puede llevar barios minutos para un microcircuito EPROM.
En una EPROM las celdas de almacenamiento son transistores MOSFET que tienen una compuerta de cilicio sin ninguna conexión eléctrica (es decir, una compuerta flotante). En un estado normal, cada transistor esta apagado y cada celda guarda un 1 lógico un transistor puede encenderse mediante la aplicación de un curso de programación de alto voltaje, el cual inyecta electrones de alta energía en la región formada por la compuerta flotante. Estos electrones permanecen en esta región una ves que a finalizado el pulso ya que no existe ninguna trayectoria de descarga.
Una ves que sea programado una celda de la EPROM se puede borrar su contenida exponiendo la EPROM a la luz ultravioleta (UV), la cual se aplica a través de la ventana que se encuerta sobre el encapsulado del circuito. La luz (UV) produce una foto corriente que va desde la compuerta flotante hacia el sustrato de cilicio; con esto se apaga el transistor y se lleva de nuevo la celda hacia el estado uno lógico. Este proceso de borrado requiere entre 15 a 20 minutos de exposición a los rayos (UV). Desafortunadamente, no existe ninguna forma de borrar solo algunas celdas; la luz (UV) borra todas las celdas al mismo tiempo por lo que una EPROM barrada almacena solamente unos lógicos. Una ves borrada puede volverse a programar.
Generaciones de las Computadoras
MARCO TEÓRICO
PRIMERA GENERACIÓN (1951 a 1958)
Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productoscomo rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950.
Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM 701 se conviertió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañias privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.
SEGUNDA GENERACIÓN (1959-1964)
Transistor Compatibilidad Limitada
El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.
Los programas de computadoras también mejoraron. El COBOL (COmmon Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de os mas grandes avances en cuanto a portabilidad de programas entre diferentes computadoras; es decir, es uno de los primeros programas que se pueden ejecutar en diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 habia inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), que se encago de desarrollar el proyecto COBOL El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.
La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH.
Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporation con su conocido modelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento. En esta generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).
TERCERA GENERACIÓN (1964-1971)
Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora.
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras.
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.
La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos.
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de
30000, al grado que IBM llegó a conocerse como sinónimo de computación.
También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips).
Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).
Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron sumador auge entre 1960 y 70.
CUARTA GENERACIÓN (1971 a 1981)
Microprocesador , Chips de memoria, Microminiaturización
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC)
En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.
Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet.
Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).
Las principales tecnologías que dominan este mercado son:
IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente.
Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse) sobre uno de los iconos o menús.
QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)
Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materiade computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.
Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizajefundamentados en sistemas expertos e inteligencia artificial.
El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).
Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial.
El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.
SEXTA GENERACIÓN 1990 HASTA LA FECHA
Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.
CONCLUSION
En esta investigación acerca de las generaciones de las computadoras nos hemos dado cuenta del avance que han tenidos y , gracias a los avances en relación a ellas hemos alcanzado un nivel de tecnología muy elevado el cual nos ha servido para muchas áreas, como por ejemplo las comunicaciones, la medicina, la educación, etc.
La investigación actual va dirigida a aumentar la velocidad y capacidad de las computadoras se centra sobre todo en la mejora de la tecnología de los circuitos integrados y en el desarrollo de componentes de conmutación aún más rápidos. Se han construido circuitos integrados a gran escala que contienen varios millones de componentes en un solo chip.
Las computadoras se han convertido en la principal herramienta utilizada por el hombre y ya son parte esencial de cada uno de nosotros, y usted deberá aprender todas esas, antes complicadas hoy comunes tecnologías modernas.
PRIMERA GENERACIÓN (1951 a 1958)
Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productoscomo rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950.
Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM 701 se conviertió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañias privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.
SEGUNDA GENERACIÓN (1959-1964)
Transistor Compatibilidad Limitada
El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.
Los programas de computadoras también mejoraron. El COBOL (COmmon Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de os mas grandes avances en cuanto a portabilidad de programas entre diferentes computadoras; es decir, es uno de los primeros programas que se pueden ejecutar en diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 habia inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), que se encago de desarrollar el proyecto COBOL El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.
La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH.
Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporation con su conocido modelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento. En esta generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).
TERCERA GENERACIÓN (1964-1971)
Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora.
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras.
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.
La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos.
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de
30000, al grado que IBM llegó a conocerse como sinónimo de computación.
También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips).
Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).
Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron sumador auge entre 1960 y 70.
CUARTA GENERACIÓN (1971 a 1981)
Microprocesador , Chips de memoria, Microminiaturización
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC)
En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.
Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet.
Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).
Las principales tecnologías que dominan este mercado son:
IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente.
Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse) sobre uno de los iconos o menús.
QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)
Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materiade computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.
Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizajefundamentados en sistemas expertos e inteligencia artificial.
El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).
Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial.
El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.
SEXTA GENERACIÓN 1990 HASTA LA FECHA
Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.
CONCLUSION
En esta investigación acerca de las generaciones de las computadoras nos hemos dado cuenta del avance que han tenidos y , gracias a los avances en relación a ellas hemos alcanzado un nivel de tecnología muy elevado el cual nos ha servido para muchas áreas, como por ejemplo las comunicaciones, la medicina, la educación, etc.
La investigación actual va dirigida a aumentar la velocidad y capacidad de las computadoras se centra sobre todo en la mejora de la tecnología de los circuitos integrados y en el desarrollo de componentes de conmutación aún más rápidos. Se han construido circuitos integrados a gran escala que contienen varios millones de componentes en un solo chip.
Las computadoras se han convertido en la principal herramienta utilizada por el hombre y ya son parte esencial de cada uno de nosotros, y usted deberá aprender todas esas, antes complicadas hoy comunes tecnologías modernas.
lunes, 14 de septiembre de 2009
Organizacion de la computadora
Si no se toman en cuenta las diferencias en apariencia física, virtualmente todas las computadoras pueden ser concebidas como divididas en seis unidades lógicas o secciones. Estas son:
1. Unidad de entrada. Esta es la sección "de recepción" de la computadora. Obtiene información (datos y programas de computadora) a partir de varios dispositivos de entrada y pone esta información a la disposición de las otras unidades, de tal forma que la información pueda ser procesada. La mayor parte de la información se introduce en las computadoras hoy día a través de teclados de tipo maquina de escribir.
2. Unidad de salida. Esta es la sección "de embarques" de la computadora. Toma la información que ha sido procesada por la computadora y la coloca en varios dispositivos de salida para dejar la información disponible para su uso fuera de la computadora. La mayor parte de la información sale de las computadoras hoy día mediante despliegue en pantallas o mediante impresión en papel.
3. Unidad de memoria. Esta es la sección de "almacén" de rápido acceso y de capacidad relativamente baja de la computadora. Retiene información que ha sido introducida a través de la unidad de entrada, de tal forma que esta información pueda estar de inmediato disponible para su proceso cuando sea necesario. La unidad de memoria también retiene información ya procesada, hasta que dicha información pueda ser colocada por la unidad de salida en dispositivos de salida. La unidad de memoria se conoce a menudo como memoria o memoria primaria.
4. Unidad aritmética y lógica (ALU). Esta es la sección de "fabricación" de la computadora. Es responsable de la ejecución de cálculos como es suma, resta, multiplicación y división. Contiene los mecanismos de decisión que permiten que la computadora, por ejemplo, compare dos elementos existentes de la unidad de memoria para determinar si son o no iguales.
5. Unidad de procesamiento central (CPU). Esta es la sección "administrativa" de la computadora. Es el coordinador de la computadora que es responsable de la supervisión de la operación de las demás secciones. El CPU le indica a la unidad de entrada cuando debe leerse la información y colocarse en la unidad de memoria, le indica al ALU cuándo deberá utilizar información de la unidad de memoria en cálculos, y le indica a la unidad de salida cuándo enviar información de la unidad de memoria a ciertos dispositivos de salida.
6. Unidad de almacenamiento secundario. Esta es la sección de "almacén" a largo plazo de alta capacidad de la computadora. Los programas o los datos que no se estén utilizando de forma activa por otras unidades, están por lo regular colocados en dispositivos de almacenamiento secundario (como discos) en tanto se necesiten otra vez, es posible que sean horas, días, meses o inclusive años después.
1. Unidad de entrada. Esta es la sección "de recepción" de la computadora. Obtiene información (datos y programas de computadora) a partir de varios dispositivos de entrada y pone esta información a la disposición de las otras unidades, de tal forma que la información pueda ser procesada. La mayor parte de la información se introduce en las computadoras hoy día a través de teclados de tipo maquina de escribir.
2. Unidad de salida. Esta es la sección "de embarques" de la computadora. Toma la información que ha sido procesada por la computadora y la coloca en varios dispositivos de salida para dejar la información disponible para su uso fuera de la computadora. La mayor parte de la información sale de las computadoras hoy día mediante despliegue en pantallas o mediante impresión en papel.
3. Unidad de memoria. Esta es la sección de "almacén" de rápido acceso y de capacidad relativamente baja de la computadora. Retiene información que ha sido introducida a través de la unidad de entrada, de tal forma que esta información pueda estar de inmediato disponible para su proceso cuando sea necesario. La unidad de memoria también retiene información ya procesada, hasta que dicha información pueda ser colocada por la unidad de salida en dispositivos de salida. La unidad de memoria se conoce a menudo como memoria o memoria primaria.
4. Unidad aritmética y lógica (ALU). Esta es la sección de "fabricación" de la computadora. Es responsable de la ejecución de cálculos como es suma, resta, multiplicación y división. Contiene los mecanismos de decisión que permiten que la computadora, por ejemplo, compare dos elementos existentes de la unidad de memoria para determinar si son o no iguales.
5. Unidad de procesamiento central (CPU). Esta es la sección "administrativa" de la computadora. Es el coordinador de la computadora que es responsable de la supervisión de la operación de las demás secciones. El CPU le indica a la unidad de entrada cuando debe leerse la información y colocarse en la unidad de memoria, le indica al ALU cuándo deberá utilizar información de la unidad de memoria en cálculos, y le indica a la unidad de salida cuándo enviar información de la unidad de memoria a ciertos dispositivos de salida.
6. Unidad de almacenamiento secundario. Esta es la sección de "almacén" a largo plazo de alta capacidad de la computadora. Los programas o los datos que no se estén utilizando de forma activa por otras unidades, están por lo regular colocados en dispositivos de almacenamiento secundario (como discos) en tanto se necesiten otra vez, es posible que sean horas, días, meses o inclusive años después.
domingo, 13 de septiembre de 2009
Arquitectura de Computadoras
La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que la unidad central de proceso (CPU) trabaja internamente y accede a las direcciones de memoria.
También suele definirse como la forma de seleccionar e interconectar componentes de hardware para crear computadoras según los requerimientos de funcionalidad, rendimiento y costo
El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema exceptuando la UCP se denomina periférico, por lo que el ordenador tiene dos partes bien diferenciadas, que son: la UCP (encargada de ejecutar programas y que esta compuesta por la memoria principal, la UAL y la UC) y los periféricos (que pueden ser de entrada, salida, entrada-salida y comunicaciones).
También suele definirse como la forma de seleccionar e interconectar componentes de hardware para crear computadoras según los requerimientos de funcionalidad, rendimiento y costo
El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema exceptuando la UCP se denomina periférico, por lo que el ordenador tiene dos partes bien diferenciadas, que son: la UCP (encargada de ejecutar programas y que esta compuesta por la memoria principal, la UAL y la UC) y los periféricos (que pueden ser de entrada, salida, entrada-salida y comunicaciones).
Suscribirse a:
Comentarios (Atom)