Computadora.

Una Apple IIc Pascal.

Una computadora es un sistema digital con tecnología microelectrónica capaz de procesar información a partir de un grupo de instrucciones denominado programa. La estructura básica de una computadora incluye microprocesador (CPU), memoria y dispositivos de entrada/salida (E/S), junto a los buses que permiten la comunicación entre ellos.

La característica principal que la distingue de otros dispositivos similares, como una calculadora no programable, es que puede realizar tareas muy diversas cargando distintos programas en la memoria para que los ejecute el procesador.

Sistema operativo.

Una computadora normalmente utiliza un programa informático especial, denominado sistema operativo, que ha sido diseñado, construido y probado para gestionar los recursos de la computadora: la memoria, los dispositivos de E/S, los dispositivos de almacenamiento (discos duros, unidades de DVD y CD), etc.

Evolución del término computadora.

Una computadora es cualquier dispositivo usado para procesar información de acuerdo con un procedimiento bien definido. En un principio, la palabra era usada para describir a las personas que hacían cálculos aritméticos, con o sin ayuda mecánica, pero luego se trasladó a las propias máquinas. Dentro de la definición que acabamos de dar, entraría el uso de dispositivos mecánicos como la regla de cálculo, toda la gama de calculadoras mecánicas desde el ábaco hacia adelante, además de todas las computadoras electrónicas contemporáneas.

Sin embargo, la definición anterior incluye muchos dispositivos de usos específicos que sólo pueden realizar una función o un número determinado de funciones. Si pensamos en las computadoras modernas, la característica más importante que los distingue de los aparatos anteriores es que tienen una programación adecuada. Con cualquier computadora se puede emular el funcionamiento de otra (únicamente limitado por la capacidad de almacenamiento de datos y las diferentes velocidades) y, de hecho, se cree que con las actuales se puede emular a cualquier computadora que se invente en el futuro (aunque sean mucho más lentos). Por lo tanto, en cierto sentido, esta capacidad crítica es una prueba muy útil, para identificar las computadoras de uso general de los aparatos destinados a usos específicos (como las macrocomputadoras).

Esta característica de poderse emplear para un uso general se puede formalizar en una regla según la cual con una máquina de estas características se debe poder emular el funcionamiento de una máquina de Turing universal. Las máquinas que cumplan con esta definición son homologables a la máquina de Turing.

Originariamente, el procesamiento de la información estaba relacionado de manera casi exclusiva con problemas aritméticos.

Macintosh Classic (1990)

Uso actual del término.

Sin embargo, en los últimos 20 años aproximadamente muchos aparatos domésticos, sobre todo las consolas para videojuegos, a las que hay que añadir los teléfonos móviles, los vídeos, los asistentes personales digitales (PDA) y un sinfín de aparatos caseros, industriales, para coches y electrónicos, tienen circuitos homologables a la máquina de Turing (con la limitación de que la programación de estos aparatos está instalada en un chip de memoria ROM que hay que remplazar cada vez que queremos cambiar la programación).

Esta especie de computadoras que se encuentran dentro de otras computadoras de uso general son conocidas como microcontroladores o computadores integrados. Por lo tanto, muchas personas han restringido la definición de computadora a aquellas máquinas cuyo propósito principal sea el procesamiento de información y que puedan adaptarse a una gran variedad de tareas, sin ninguna modificación física, excluyendo a aquellos dispositivos que forman parte de un sistema más grande como los teléfonos, microondas o aviones.

Tipos de computadoras.

Tradicionalmente existen tres tipos de computadoras que cumplen con estos requisitos: las computadoras centrales, las minicomputadoras y las computadoras personales. Las minicomputadoras, como tales, ya no existen, habiendo sido reemplazadas por computadoras personales con programas especiales para servicio de correo; las mismas computadoras centrales tienen características propias de la computadora personal, como el estar basadas en microprocesadores.

Para finalizar, hay que decir que mucha gente que no está familiarizada con otras formas de computadoras, usa el término para referirse exclusivamente a las computadoras personales.

Cómo funcionan las computadoras.

Aunque las tecnologías empleadas en las computadoras digitales han cambiado mucho desde que aparecieron los primeros computadores en los años 40, la mayoría todavía utilizan la arquitectura von Neumann, propuesta a principios de los años 1940 por John von Neumann.

La arquitectura von Neumann describe un computador con 4 secciones principales: la unidad lógica y aritmética (ALU), la unidad de control, la memoria, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por un conjunto de cables denominados buses.

En este sistema, la memoria es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit, o unidad de información. La instrucción es la información necesaria para realizar, lo que se desea, con la computadora. Las «celdas» contienen datos que se necesitan para llevar a cabo las instrucciones, con la computadora. En general, la memoria puede ser rescrita varios millones de veces; se parece más a una libreta que a una lápida.

El tamaño de cada celda y el número de celdas varía mucho de computadora a computadora, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip.

Con los circuitos electrónicos se simula las operaciones lógicas y aritméticas, se pueden diseñar circuitos para que realicen cualquier forma de operación.

La unidad lógica y aritmética, o ALU, es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta), operaciones lógicas (Y, O, NO), y operaciones de comparación. En esta unidad es en donde se hace todo el trabajo computacional.

La unidad de control sigue la dirección de las posiciones en memoria que contiene la instrucción que la computadora va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando a la computadora de que la próxima instrucción estará ubicada en otra posición de la memoria).

Los dispositivos E/S sirven a la computadora para, obtener información del mundo exterior y devolver los resultados de dicha información. Hay una gama muy extensa de dispositivos E/S como los teclados, monitores y unidades de disco flexible o las cámaras web.

Las instrucciones que acabamos de discutir, no son las ricas instrucciones del ser humano. Una computadora sólo se diseña con un número limitado de instrucciones bien definidas. Los tipos de instrucciones típicas realizadas por la mayoría de las computadoras son como estos ejemplos: "...copia los contenidos de la posición de memoria 123, y coloca la copia en la posición 456, añade los contenidos de la posición 666 a la 042, y coloca el resultado en la posición 013, y, si los contenidos de la posición 999 son 0, tu próxima instrucción está en la posición 345...".

Las instrucciones dentro de la computadora se representan mediante números. Por ejemplo, el código para copiar puede ser 001. El conjunto de instrucciones que puede realizar una computadora se conoce como lenguaje de máquina o código máquina. En la práctica, no se escriben las instrucciones para las computadoras directamente en lenguaje de máquina, sino que se usa un lenguaje de programación de alto nivel que se traduce después al lenguaje de la máquina automáticamente, a través de programas especiales de traducción (intérpretes y compiladores). Algunos lenguajes de programación representan de manera muy directa el lenguaje de máquina, como los ensambladores (lenguajes de bajo nivel) y, por otra parte, los lenguajes como Prolog, se basan en principios abstractos muy alejados de los que hace la máquina en concreto (lenguajes de alto nivel).

Las computadoras actuales colocan la ALU y la unidad de control dentro de un único circuito integrado conocido como Unidad central de procesamiento o CPU. Normalmente, la memoria de la computadora se sitúa en unos pocos circuitos integrados pequeños cerca de la CPU. La gran mayoría de la masa de la computadora está formada por sistemas auxiliares (por ejemplo, para traer electricidad) o dispositivos E/S.

Algunas computadoras más grandes se diferencian del modelo anterior, en un aspecto importante, porque tienen varias CPU y unidades de control que trabajan al mismo tiempo. Además, algunas computadoras, usadas principalmente para la investigación, son muy diferentes del modelo anterior, pero no tienen muchas aplicaciones comerciales.

Por lo tanto, el funcionamiento de una computadora es en principio bastante sencillo. La computadora trae las instrucciones y los datos de la memoria. Se ejecutan las instrucciones, se almacenan los datos y se va a por la siguiente instrucción. Este procedimiento se repite continuamente, hasta que se apaga la computadora. Los Programas de computadora (software) son simplemente largas listas de instrucciones que debe ejecutar la computadora, a veces con tablas de datos. Muchos programas de computadora contienen millones de instrucciones, y muchas de esas instrucciones se ejecutan rápidamente. Una computadora personal moderna (en el año 2003) puede ejecutar de 2000 a 3000 millones de instrucciones por segundo. Las capacidades extraordinarias que tienen las computadoras no se deben a su habilidad para ejecutar instrucciones complejas. Las computadoras ejecutan millones de instrucciones simples diseñadas por personas inteligentes llamados programadores. Los buenos programadores desarrollan grupos de instrucciones para hacer tareas comunes (por ejemplo, dibujar un punto en la pantalla) y luego ponen dichos grupos de instrucciones a disposición de otros programadores.

En la actualidad, podemos tener la impresión de que las computadoras están ejecutando varios programas al mismo tiempo. Esto se conoce como multitarea, siendo más usado el segundo término. En realidad, la CPU ejecuta instrucciones de un programa y después tras un breve periodo de tiempo, cambian a un segundo programa y ejecuta algunas de sus instrucciones. Esto crea la ilusión de que se están ejecutando varios programas simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la película que está formada por una sucesión rápida de fotogramas. El sistema operativo es el programa que controla el reparto del tiempo generalmente.

El sistema operativo es una especie de caja de herramientas lleno de rutinas. Cada vez que alguna rutina de computadora se usa en muchos tipos diferentes de programas durante muchos años, los programadores llevarán dicha rutina al sistema operativo, al final.

El sistema operativo sirve para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes (memoria o dispositivos E/S) se utilizan. El sistema operativo tiene otras funciones que ofrecer a otros programas, como los códigos que sirven a los programadores, escribir programas para una máquina sin necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados.

En la actualidad, pero aunque no con mucha cotidianeidad, se está empezando a incluir dentro del sistema operativo algunos programas muy usados debido a que es una manera económica de distribuirlos. No es extraño que un sistema operativo incluya navegadores de internet, procesadores de texto, programas de correo electrónico, interfaces de red, reproductores de películas y otros programas que antes se tenían que conseguir aparte.

Usos de las computadoras.

Las primeras computadoras digitales, de gran tamaño y coste, se utilizaban principalmente para hacer cálculos científicos. ENIAC, una de las primeras computadoras, calculaba densidades de neutrón transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer computador australiano, evaluó patrones de precipitaciones para un gran proyecto de generación hidroeléctrica. Los primeros visionarios vaticinaron que la programación permitiría jugar al ajedrez, ver películas y otros usos.

La gente que trabajaba para los gobiernos y las grandes empresas también usaron las computadoras para automatizar muchas de las tareas de recolección y procesamiento de datos, que antes eran hechas por humanos; por ejemplo, mantener y actualizar la contabilidad y los inventarios. En el mundo académico, los científicos de todos los campos empezaron a utilizar las computadoras para hacer sus propios análisis. El descenso continuo de los precios de las computadoras permitió su uso por empresas cada vez más pequeñas. Las empresas, las organizaciones y los gobiernos empiezan a emplear un gran número de pequeñas computadoras para realizar tareas que antes eran hechas por computadores centrales grandes y costosos. La reunión de varias pequeñas computadoras en un solo lugar se llamaba torre de servidores.

Con la invención del microprocesador en 1970, fue posible fabricar computadoras muy baratas. Las computadoras personales se hicieron famosas para llevar a cabo diferentes tareas como guardar libros, escribir e imprimir documentos. Calcular probabilidades y otras tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de computadoras y su fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos.

Al mismo tiempo, las pequeñas computadoras, casi siempre con una programación fija, empezaron a hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la maquinaria industrial. Estos procesadores integrados controlaban el comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de funciones de control más complejas como los sistemas de freno antibloqueo en los coches. A principios del siglo 21, la mayoría de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las líneas de producción de las fábricas funcionan con una computadora. La mayoría de los ingenieros piensa que esta tendencia va a continuar.

Etimología de las palabras ordenador y computadora.

La denominación recomendada de forma general en castellano es la de computadora, del latin "computare" aunque parezca un anglicismo procedente de computer (no hay que olvidar que el origen de las computadoras actuales está en los Estados Unidos). En España está generalizado el localismo ordenador, galicismo derivado de ordinateur.

En italiano, se emplea usa el término en inglés, il computer (el computador). En Suecia el nombre está relacionado con los datos dator. En China, a la computadora se le denomina 计算机 (cerebro eléctrico).

En un principio, la palabra inglesa se utilizaba para designar a una persona que realizaba cálculos aritméticos con o sin ayuda mecánica. Podemos considerar las computadoras programables modernas como la evolución de sistemas antiguos de cálculo o de ordenación, como la máquina diferencial de Babbage o la máquina tabuladora de Hollerith.

Computadoras y niños pequenos (Computers and Young Children).

Si se utiliza o no la tecnologia con niños pequeños y de ser asi, como son problemas criticos que enfrentan los educadores de niños pequeños y sus padres. Este digest plantea preguntas acerca de cuando los niños deberian empezar a usar computadoras; actividades apropiadas para el desarrollo en computadoras en pre-escolar, jardin infantil y clases a principio de primaria; beneficios del uso de la computadora; integracion de computadoras en los salones de clase y entrenamiento de profesores.

Cuando introducir los niños a las computadoras.

Muchos investigadores no recomiendan que niños menores de 3 años usen computadoras (por ej. Hohmann, 1998). Las computadoras simplemente no compaginan con su estilo de aprendizaje. Los niños con menos de 3 años aprenden a traves de sus cuerpos: sus ojos, orejas, bocas, manos y piernas. Aunque ellos pueden retornar una y otra vez a la misma actividad, estan en constante movimiento, cambiando de foco frecuentemente. Las computadoras no son una buena eleccion para el desarrollo mental y destreza de los niños que estan aprendiendo a conocer: gateando, caminando, hablando y teniendo amigos.

Actividades en la computadora apropiadas para el desarrollo.

Desafortunadamente, las computadoras son usadas muy frecuentemente en formas inapropiadas para el desarrollo. Un estudio (Congreso de EEUU, 1995) encontro que mientras "las escuelas estan constantemente incrementando su acceso a las nuevas tecnologias, muchos profesores las utilizan de una forma tradicional, incluyendo ejercicios con juegos instructivos y de destrezas " (p. 103). Clements (1994) establece un punto similar, anotando, "Lo que nosotros como educadores de la niñez estamos haciendo actualmente con computadoras, es lo que investigadores y las guias de NAEYC dicen que deberiamos hacer con menos frecuencia.

Papert (1998) enfatiza que las computadoras tienen impacto sobre los niños cuando proporcionan experiencias concretas, cuando los niños tienen libre acceso y control sobre el aprendizaje, los niños y los profesores aprenden juntos, los profesores estimulan la tutoria en parejas y usan computadoras para enseñar ideas poderosas.

Las maneras apropiadas segun el desarrollo para usar computadoras con niños de 3 y 4 años de edad, son diferentes a las que nosotros usamos en el jardin infantil y en grados de primaria.

Computadoras y pre-escolares. Los niños de 3 y 4 años estan mentalmente desarrollados para explorar computadoras y la mayoria de educadores de niños pequeños ven el centro de computadoras como un valioso centro activo de aprendizaje. El tiempo es crucial. Los niños necesitan tiempo suficiente para experimentar y explorar. Los niños pequeños se sienten a gusto haciendo click en varias opciones, para ver que sucedera. Los profesores deberian intervenir cuando los niños parecen frustrados o cuando nada parece estar sucediendo. En muchas ocasiones, solamente una palabra o dos, aun desde la otra esquina del salon, le recuerda a los niños lo que necesitan hacer para conseguir su objetivo. Proporcionandoles ayuda minima les enseña que ellos pueden manejar la computadora exitosamente. Ademas, al obsevar lo que los niños estan haciendo, los profesores pueden sondearlos con preguntas o proponerles problemas con el proposito de enriquecer y expandir su experiencia con la computadora.

Computadoras para los niños de jardín infantil y primaria. Cuando los niños entran al jardín y a los primeros grados, es importante que ellos continuen teniendo acceso al centro de computacion con un conjunto de libros de software apropiados.

Los niños necesitan oportunidades para realizar elecciones acerca de algunas de sus experiencias en computadoras. Ademas, los profesores del jardín o grado de primaria querran usar la computadora para actividades mas especificas que cumplan con sus objetivos de aprendizaje. Por ejemplo, para mejorar las destrezas en el lenguaje, los niños pueden redactar una carta a un amigo o familiar usando el modelo proporcionado en ClarisWorks para niños, o un software similar.

Los niños tambien podrian trabajar en pequeños grupos. Por ejemplo, un grupo podria usar un software tal como "Scholastic's Magic School Bus Explores the Rainforest" (Explorando el bosque) para comparar dos de las 7 ecozonas en el programa. Usando otro software tal como Edmark's Kids' Desk: Internet Safe, otros pequeos grupos pueden investigar estas dos ecozonas en sitios de Internet seleccionados por el profesor. Los grupos pueden entonces unirsen para compartir sus descubrimientos y escribir un reporte sobre las ecozonas, ilustrando cada uno con pinturas dibujadas por miembros del grupo o tomadas en sitios de Internet. A traves de la exploracion de sus experiencias con computadoras, estos niños desarrollan la memoria, aprenden como buscar informacion de fuentes multiples hasta que tengan un entendimiento claro del ecosistema e integren sus conocimientos sobre como funciona cada uno. En el proceso, ellos aprenden a delegar responsabilidad, interactuar con otros, resolver problemas y cooperar para cumplir una meta.

Beneficios del uso de la computadora.

Las encuestas han mostrado que los niños de 3 y 4 años que usan computadoras junto con actividades de apoyo que refuerzan los mayores objetivos de los programas, tienen ganacias significativamente importantes en el desarrollo, comparado con niños sin experiencias en computadoras en salones de clase similares-beneficios en cuanto a inteligencia, habilidades no-verbales, conocimiento estructural, memoria a largo plazo, destreza manual, destreza verbal, resolucion de problemas, abstraccion y destreza conceptual (Haugland, 1992).

Los beneficios de proporcionar computadoras a niños de jardin y grados de primaria varian dependiendo de las experiencias ofrecidas en la computadora y la frecuencia de acceso a las computadoras. El provecho potencial para los niños de jardin y primaria es tremendo, incluyendo aumento en las destrezas motrices, aumento en el razonamiento matematico, aumento de creatividad, altas calificaciones en cuestionarios de pensamientos criticos y resolucion de problemas, altos niveles en lo que Nastasi y Clements (1994) llaman efecto motivacional (la creencia de que ellos pueden cambiar o afectar su medio ambiente), e incremento en los resultados de evaluaciones de lenguaje estandarizado.

Ademas, el uso de la computadora realza la auto-estima de los niños y estos demuestran aumento en sus niveles de comunicacion hablada y de cooperacion. Ellos comparten sus roles como lideres con mas frecuencia desarrollando actitudes positivas hacia el aprendizaje (Clements, 1994; Cardelle-Elawar & Wetzel, 1995; Adams 1996; Denning & Smith, 1997; Haugland & Wright, 1997; Matthew, 1997).

Integración de las computadoras en la clase.

Los programas pre-escolares cubren una poblacion diversa y tienen diferentes horarios, programas de estudio, modelos en el cuerpo docente, recursos y mucho más. Las metas relacionadas con el uso de la computadora y los pasos que la escuela decide tomar para integrar las computadoras en la clase pueden ser completamente diferentes pero igualmente exitosos.

Un comienzo viable para los profesores, administradores y padres es compartir articulos de revistas, periodicos y diarios relacionados con el uso de la computadora para los niños. Se puede organizar un grupo de estudio con aquellos individuos que hayan expresado interes en el tema sobre el uso de computadoras por parte de los niños. El siguiente paso es resumir los beneficios del uso de las computadoras con los niños pequeños y discutir las metas para el año, incluyendo el costo de las computadoras y el entrenamiento para profesores.

La primera meta quizas sea obtener las computadoras. La proporcion entre el número de computadoras y el número de niños pequeños es importante, máximo de 1 a 7, preferiblemente de 1 a 5. Si este promedio no se puede lograr con los recursos disponibles, es preferible utilizar un conjunto de computadoras en una clase por un mes, cuatro meses o por un semestre y posteriormente rotarlas a otras clases. El acceso equitativo para todos los niños es esencial; aun el profesor mas talentoso tendra dificultades integrando las computadoras en su clase, si tiene tan solo una computadora.

Para ayudar en la seleccion de computadoras los grupos de estudio pueden buscar consejeros que tengan experiencia usando computadoras. Estos consejeros pueden ser profesores que utilizan computadoras, un profesor de colegio o líderes de empresas. Los grupos de estudio tambien podrian realizar una "lluvia de ideas" sobre posibles actividades para conseguir fondos y explorar la posibilidad de obtener computadoras usadas de las empresas, asesorandose de que las computadoras tengan capacidad suficiente para correr software diseado para ninos pequenos, actualmente en el mercado.

Entrenamiento de profesores.

El entrenamiento de profesores es esencial para que las computadoras sean una herramienta efectiva de enseanza. Un reporte reciente revela que solamente pocos profesores en un número relativamente pequeño de escuelas han sido entrenados para maximizar el uso de la tecnologia en los salones de clase. (Gatewood & Conrad, 1997). Oportunidades de entrenamiento capacitan a los profesores para desarrollar habilidades, confianza y aprender estrategias para integrar computadoras dentro de su curriculum. Epstein (1993) identifico cuatro componentes criticos para el entrenamiento: experiencia práctica, talleres de trabajo, modelos y monitores y supervisión y seguimiento.

Como primer paso, los profesores pueden explorar el software que es apropiado para sus salones de clase. Ellos pueden entonces discutir los objetivos potenciales de aprendizaje de los programas y actividades que podrian usar para integrar el software particular dentro de sus salones de clase. Los profesores pueden tambien participar en talleres que integren la teoria del desarrollo e investigar sobre las experiencias en el uso de computadoras. Los monitores tambien pueden ayudar a los profesores con afirmacion, apoyo y sugerencias en el salon de clase.

Una vez que los profesores implementen la tecnología en los salones de clase, su vision sobre el rol de la tecnología en la enseañza y aprendizaje indudablemente cambiará. Los administradores necesitan continuamente dar apoyo a los profesores en su empeo para descubrir como la tecnologia puede acrecentar al máximo el aprendizaje de los niños.

Generación de ordenadores o computadoras.

Primeras calculadoras mecánicas.

Regla de cálculo.

John Napier notó que la multiplicación y división de números pueden ser realizadas por adición y sustracción, respectivamente, de logaritmos de esos números. Desde que los números reales pueden ser representados como distancias o intervalos en una línea, el traslado simple u operación deslizante de dos longitudes de madera, adecuadamente inscritos con intervalos lineales o logarítmicos, se usó como la regla de cálculo por generaciones de ingenieros y otros matemáticos profesionales, hasta la invención de la calculadora de bolsillo.

Lectores de tarjetas perforadas 1801-1940.

En 1801, Joseph-Marie Jacquard desarrolló un telar en el cual el patrón a tejerse fue controlado por tarjetas perforadas. La serie de tarjetas podría cambiarse sin tener que cambiar el diseño mecánico del telar. Este fue un punto en el hito de la programabilidad. Herman Hollerith.

En 1890 la Oficina de Censos de los Estados Unidos utilizó tarjetas perforadas [punched cards] y máquinas de ordenamiento diseñadas por Herman Hollerith para manejar el flujo de datos del censo decenal por mandato la constitución. La compañía de Hollerith eventualmente se convirtió en el núcleo de IBM. En el vigésimo siglo, la electricidad fue usada primero por máquinas de cálculo y ordenamiento. Por 1940, la Oficina de Cómputo Astronómico Thomas J. Watson de W.J. Eckert de la Universidad de Columbia tenia publicado Los Métodos de Tarjetas Perforadas en la Computación Científica, el cual fue suficientemente avanzado para resolver ecuaciones diferenciales, realizar multiplicaciones y divisiones usando representaciones de punto flotante, todo en tarjetas perforadas y tarjetas de enchufe similares a aquellas usadas por operadores de teléfono. Los cálculos astronómicos representaron el estado del arte en computación.

A principios del siglo XIX, el inglés Charles Babbage se adelantó a su época al diseñar la máquina diferencial y la máquina analítica, primeras computadoras mecánicas que, sin embargo, no fueron construidas en vida del científico.

Hasta 1891 no se construyó su máquina analítica, que se programó mediante fichas perforadas, gracias a la idea de la condesa Ada Lovelace (hija de Lord Byron y colaboradora con Babbage) que sugirió el uso tarjetas de manera repetida con un propósito similar al que tienen las subrutinas de hoy en día. Ada Lovelace está considerada como la primera programadora de la historia.

A principios de los años 40, Howard H. Aiken, de la Universidad de Harvard, construyó la primera computadora moderna, Mark I, que funcionaba con relés, se programaba con interruptores y leía los datos de cintas de papel perforado.

Primeros diseños en máquinas programables. 1835-1900s.

La característica que define de una "computadora universal" es programabilidad, que le permite a la computadora emular cualquier otra maquina calculadora por medio de cambiar una secuencia de instrucciones almacenadas. En 1835 Charles Babbage describió su máquina analítica. Este fue el plan de una computadora programable de propósito general, empleando tarjetas perforadas para entrada y una máquina de vapor como fuente de energía. Mientras los planes eran probablemente correctos, las disputas con el artesano que construyó las partes, y el fin de los fondos por parte del gobierno, la hicieron imposible de construir. Ada Lovelace, la hija de Lord Byron, tradujo y agregó notas para el "Boceto de la Máquina Analítica" por L.F. Menabrea. Ella se volvió estrechamente asociada con Babbage. Algunos la nombran como la primera programadora de la historia, sin embargo este nombramiento y el valor de sus otras contribuciones son disputadas por muchos. Una reconstrucción de la Máquina Diferencial No.2 ha estado operacional desde 1991 en el Museo de Ciencia de Londres. Ésta trabaja como Babbage la diseñó y muestra que Babbage estaba acertado en su teoría y además era capaz de fabricar partes con la precisión requerida. Babbage falló quizá a causa de que sus diseños fueron demasiado ambiciosos.

Otros tipos limitados de computación mecánica. 1800s-1900s.

Por los 1900s las primeras calculadora mecánicas, cajas registradoras, máquinas de contabilidad, entre otras, se rediseñaron para utilizar motores electrónicos, con un engranaje de posición como la representación para el estado de una variable. Las personas eran computadoras, como un titulo de trabajo, y usaban calculadoras para evaluar expresiones. Durante el proyecto Manhattan, el futuro Nobel Richard Feynman fue el supervisor de las computadoras humanas, muchas de las mujeres dedicadas a las matemáticas, que entendieron las ecuaciones matemáticas que estaban resolviéndose para el esfuerzo de guerra. Incluso el renombrado Stanislaw Marcin Ulman fue presionado por el servicio para traducir las matemáticas en las aproximaciones computables para la bomba de hidrógeno, después de la guerra. Durante la Segunda Guerra Mundial, los planes de Curt Herzstark para una calculadora de bolsillo mecánica, literalmente le salvaron la vida: Cliff Stoll, Scientific American 290, no. 1, pp. 92-99. (January 2004).

Computadoras análogas, pre-1940.

El diagrama de Smith, un tipo de monograma.

Antes de la Segunda Guerra Mundial, las computadoras análogas mecánicas y eléctricas fueron consideradas el "estado del arte", y muchos pensaron que eran el futuro de la computación. Las computadoras analógicas usaron las cantidades variantes continuas de cantidades físicas, tal como voltajes o corrientes, o velocidades rotatorias de árboles, para representar las cantidades procesándose. Un ejemplo ingenioso de tal máquina fue el integrador de agua construido en 1936. A diferencia de las computadoras digitales modernas, las computadoras análogas no eran muy flexibles, y necesitaban ser reconfiguradas (reprogramadas) manualmente para cambiarlas de su trabajo en un problema a otro. Las computadoras análogas tenían una ventaja por encima de las primeras computadoras digitales, y era que estas podían ser usadas para resolver problemas complejos mientras que las primeras computadoras digitales eran bastante limitadas. Ya que los programas de computadora no eran aún conceptos populares en esta era (a pesar del trabajo pionero de Babbage), la soluciones eran a menudo codificado en formas tales como gráficos y monogramas, que podían representar las analogías de soluciones a problemas tales como la distribución de presiones y temperaturas en un sistema calorífico, por ejemplo. Pero cuando las computadoras digitales se volvieron más rápidas y tuvieron una capacidad de almacenamiento (memoria) mayor (RAM o almacenamiento interno), desplazaron a las computadoras analógicas casi enteramente, y la programación, o codificación se levantó como otra profesión humana.

Clases de ordenadores o computadoras:

PDA

PDA Acer N10

PDA, del inglés Personal Digital Assistant, (Ayudante personal digital) es un computador de mano originalmente diseñado como agenda electrónica. Hoy en día se puede usar como un ordenador doméstico (ver películas, crear documentos, navegar por internet).

El 7 de enero de 1992, John Sculley presenta el Personal Digital Assistant, Apple Newton, en el Consumer Electronics Show (Muestra de electrónica de consumo) de Las Vegas. Fue un sonoro fracaso de la compañía Apple, la tecnología estaba poco desarrollada y el reconocimiento de escritura era pésimo. En 1995 con la aparición de la empresa Palm comenzó una nueva etapa de un crecimiento lento pero progresivo. La irrupción de Windows en el sector ha provocado un giro hacia una inversión mayor de capacidades multimedia o conectividad. Así, el mercado de los PDAs se divide básicamente entre los que se manejan con el sistema operativo de Palm (el aparato en sí no tiene que ser necesariamente de la marca Palm para que lleve este sistema operativo) y los que llevan el sistema de Microsoft, Pocket PC. Los primeros son, normalmente, más económicos y sencillos de utilizar. Los equipados con el sistema de Microsoft, en cambio, tienen más opciones multimedia (permiten ver vídeos y escuchar música aunque de forma limitada por su escasa memoria) pero son más caros y gastan más baterías, aunque todo esto mejora con el tiempo y ya se empiezan a ver sistemas que incluyen Bluetooth y WiFi lo que los hace tremendamente atractivos hasta para cosas tan inverosímiles como su uso para domótica.

Algunos ejemplos

·      Apple Newton

·      Casio Cassiopeia

·      Franklin eBookMan

·      Handspring Visor (la compañía fue adquirida por PalmOne)

·      HP iPAQ Pocket PC (anteriormente Compaq iPAQ hasta la unión con HP en 2002)

·      Palm (antes PalmOne)

·      Sharp,Wizard y Zaurus

·      Xircom,REX 5000 y REX 6000

·      Nokia Series 60

Productos

·      PalmOne, la página oficial.

·      Sony Clié, en inglés.


Sistemas operativos

·      Palm OS, en inglés.

·      Pocket PC, en inglés.

·      Symbian OS, en inglés.

Otros

·      Wikipedia descargable para PDA

·      Artículo sobre las PDA en la revista Consumer

·      Leer libros electrónicos con su PDA en español, inglés, francés y alemán

·      PDA Hotspots

Videoconsola o Consola de Videojuego.

Una videoconsola, consola de videojuegos, sistema de videojuegos, abreviado en consola o sistema, es un sistema de hardware para el hogar diseñado específicamente para jugar a videojuegos.

Pueden ser normales, cuando son de tamaño medio y requieren ser conectadas a un televisor para la visualización del videojuego, o portátiles, cuando su tamaño es reducido y cuentan con una pantalla de visualización y una fuente de alimentación propia (baterías o pilas).

Los videojuegos pueden venir en cartuchos de plástico que protegen una placa con chips en los que está almacenado el videojuego en si, o también en disket, tarjetas, CDs o DVDs(estes dos ultimos formatos opticos de almacenamiento son los que definitivamente parecen haberse impuesto actualmente en las llamadas consolas de sobremesa, si bien la tendencia parece ser abandonar el disco estandar, dvd o cd, y discos diferentes para dificultar la pirateria, como el caso de gamecube). A día de hoy el formato cartucho se utiliza básicamente para videoconsolas portátiles, mientras que para las consolas normales se utilizan los dos ultimos formatos de disco.

Estación de trabajo.

En una red de ordenadores, una estación de trabajo (en inglés workstation) es un ordenador que facilita a los usuarios el acceso a los servidores y periféricos de la red. A diferencia de un ordenador aislado, tiene una tarjeta de red y está físicamente conectada por medio de cables u otros medios no guiados con los servidores.Los componentes para servidores y estaciones de trabajo alcanzan nuevos niveles de rendimiento informático, al tiempo que le ofrece la fiabilidad, compatibilidad, escalabilidad y arquitectura avanzada ideales para entornos multiproceso.

Microordenador.

Un microordenador es un ordenador que tiene un microprocesador en la unidad central de procesamiento.

Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel 4004, que salió el 15 de noviembre de 1971.

Desde el lanzamiento del ordenador personal de IBM, el IBM PC, el término ordenador personal se aplica a los microordenadores orientados a los consumidores. La primera generación de microordenadores fue conocida también como ordenadores domésticos. Se puede encontrar más información en esas secciones.

Fue el lanzamiento de la hoja de cálculo VisiCalc la que hizo que los microordenadores dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta de trabajo.

Miniordenador.

Actualmente mas conocidos como servidores, los miniordenadores se desarrollaban principalmente en los años 70 y 80. Rellenaban el área central entre los microordenadores de poca potencia y los ordenadores centrales de gran capacidad. Eran usados en conjunción de terminales tontos sin capacidad de cálculo propio.

El declive tuvo lugar debido al menor coste del soporte físico basado en microprocesadores y el deseo de los usuarios finales de depender menos de los inflexibles miniordenadores, con el resultado de que los miniordenadores y los falsos terminales fueron remplazados por ordenadores personales interconectados entre si y con un servidor.

El cambio fue facilitado no solo por el microprocesador, sino también por el desarrollo de varias versiones de Unix multiplataforma (con micropocesadores Intel includios) como Solaris, Linux y FreeBSD. La serie de sistemas operativos Microsoft Windows, a partir de Windows NT también incluye versiones de servidor que soportan multitareas y otras funciones para servidores.

Como ejemplo de lo explicado, Hewlett-Packard se refiere ahora a su serie de miniordenadores HP3000 como servidores.

Modelos de miniordenadores.

DEC VAX.

Data General Nova.

IBM AS/400 y RS/6000.

Hewlett-Packard HP3000.

Norsk Data Nord-1, Nord-10 y Nord-100.

Prime 50-series.

Ordenador analógico.

Un ordenador analógico u ordenador real es tipo de ordenador que utiliza fenómenos electrónicos o mecánicos para modelar el problema a resolver utilizando un tipo de cantidad física para representar otra.

Usado en contraposición a los ordenadores digitales, en los cuales los fenómenos físicos o mecánicos son utilizados para construir una máquina de estado finito que es usada después para modelar el problema a resolver. Hay un grupo intermedio, los ordenadores híbridos, en los que un ordenador digital es utilizado para controlar y organizar entradas y salidas hacia y desde dispositivos analógicos anexos; por ejemplo, los dispositivos analógicos podrían ser utilizados para generar valores iniciales para iteraciones. Así, un ábaco sería un ordenador digital, y una regla de cálculo un ordenador analógico.

Los ordenadores analógicos ideales operan con números reales y son diferenciales, mientras que los ordenadores digitales se limitan a números computables y son algebraicos. Esto significa que los ordenadores analógicos tienen una tasa de dimensión de la información (ver teoría de la información), o potencial de dominio informático más grande que los ordenadores digitales (ver teorema de incompletitud de Gödel). Esto, en teoría, permite a los ordenadores analógicos resolver problemas que son indescifrables con ordenadores digitales.

Los teóricos de la informática suelen usar el término ordenador real (llamado así porque opera dentro del conjunto de números reales), para evitar los malentendidos populares sobre los ordenadores analógicos.

El primer ordenador analógico fue inventado por Charles Babbage en 1835.

Algunos ejemplos de ordenadores analógicos son:

Máquina diferencial.

Predictores de marea.

Integrador de agua.

Ordenador de datos del objetivo para submarinos.

Modelo Hidráulico de la economía del Reino Unido.

El mecanismo de Antiquitera.

La regla de cálculo.

Ordenador central.

Los ordenadores centrales o mainframes son ordenadores grandes, potentes y caros usados principalmente por grandes compañías para el procesamiento de grandes cantidades de datos, por ejemplo, el procesamiento de transacciones bancarias. El término apareció a principios de los setenta con la introducción de ordenadores más pequeños como la serie DEC PDP, que fueron conocidos como miniordenadores, por lo que los usuarios acuñaron el término ordenador central para describir a los tipos de ordenadores más grandes y antiguos.

Descripción.

La capacidad de un ordenador central no se define tanto por la velocidad de su UCP como por su gran memoria interna, su alta y gran capacidad de almacenamiento externo, sus resultados en los dispositivo E/S rápidos y considerables, la alta calidad de su ingeniería interna que tiene como consecuencia una alta fiabilidad y soporte técnico caro pero de alta calidad. Estas máquinas pueden funcionar y funcionan durante años sin problemas ni interrupciones y las reparaciones se realizan mientras están trabajando. Los vendedores de ordenadores centrales ofrecen servicios especiales. Por ejemplo, si se rompe el ordenador, el vendedor ejecutará las aplicaciones de su cliente en sus propios ordenadores sin que los usuarios lo noten mientras que duran las reparaciones. La independencia interna de estos ordenadores es tan grande que, por lo menos, en un caso conocido, lo técnicos podían cambiarlos de sitio desmontándolos pieza a pieza y montándolos en otro lugar, dejando mientras tanto las máquinas funcionando. El cambio de un ordenador a otro en este ejemplo se produjo de manera transparente.

A menudo, los ordenadores centrales soportan miles de usuarios de manera simultánea que se conectan mediante falsos terminales.

Algunos ordenadores centrales pueden ejecutar o dar cobijo a muchos sistemas operativos y por lo tanto, no funcionan como un ordenador sólo, sino como varios ordenadores virtuales. En este papel, un ordenador central por sí solo puede remplazar docenas o cientos de pequeños ordenadores personales, reduciendo los costes administrativos y de gestión al tiempo que ofrece una escalabilidad y fiabilidad mucho mejor. La fiabilidad se consigue por la independencia de sus componentes internos señalada anteriormente, y la escalabilidad se logra porque los recursos físicos del ordenador pueden ser redistribuidos entre los terminales virtuales según las necesidades. Esto es mucho más difícil de hacer con ordenadores personales, porque para quitar o añadir nuevos componentes físicos hay que desenchufar el ordenador muchas veces y las limitaciones de dichos componentes son mucho mayores. Cuando un ordenador central actúa como el centro de operaciones de muchos terminales virtuales, puede ofrecer la potencia necesaria para dichos ordenadores pero también la flexibilidad de las redes de ordenadores personales.

Actualmente, los ordenadores centrales de IBM dominan el mercado, junto con Hitachi, Amdahl y Fujitsu. Los precios no suelen ser menos de varios cientos de miles de dólares.

Historia.

Muchos fabricantes producían ordenadores centrales en los sesenta y los setenta. En los días de gloria, eran conocidos como IBM y los siete enanitos: Burroughs, Control Data, General Electric, Honeywell, NCR, RCA y Univac.

Pero una demanda escasa y la gran competencia provoco un gran temblor en el mercado. RCA fue comprado por Univac y GE también abandonó. Honeywell fue comprado por Bull, Univac se unió a Sperry para formar Sperry/Univac, que más tarde se unió con Burroughs para formar Unisys Corporation en 1986, (conocido como apareamiento de dinosaurios). En 1991, AT&T poseyó durante un breve tiempo NCR.

Las empresas se dieron cuenta de que los servidores basados en diseños de microordenadores de menor coste se podían instalar con un coste mucho menor y ofrecer a los usuarios locales un mayor control de sus propios sistemas, y los falsos terminales empleados para conectarse a los sistemas de ordenadores centrales fueron reemplazados gradualmente por los ordenadores personales. En consecuencia, la demanda cayó en picado y las instalaciones de ordenadores centrales se restringieron sobre todo a las instituciones financieras con necesidades de procesamiento de grandes cantidades de datos. Durante un tiempo, existió un consenso dentro de los analistas de la industria de que el mercado de los ordenadores centrales estaba terminado, ya que las plataformas de ordenadores centrales eran sustituidas por redes de ordenadores personales. Esta tendencia terminó en 1990 ya que las empresas encontraron nuevos usos para sus ordenadores centrales porque ahora podían ofrecer servidores web con una potencia similar a la de cientos de pequeños ordenadores personales, pero con mucha menos electricidad y costes administrativos.

Otro factor que aumentó en la práctica el uso de ordenadores centrales fue el desarrollo del sistema operativo Linux, que es capaz de ejecutarse en muchos sistemas de ordenadores centrales diferentes, directamente o, más frecuentemente, a través de una máquina virtual. Esto permite a los ordenadores centrales aprovecharse de la experiencia en programación y de las comunidades del mercado de los ordenadores personales.

Comparación con los superordenadores.

La distinción entre superordenadores y ordenadores centrales no es muy sencilla, pero generalmente se puede decir que los superordenadores se centran en los problemas limitados por la velocidad de cálculo mientras que los ordenadores centrales se centran en problemas limitados por los dispositivos de E/S y la fiabilidad. En consecuencia:

·      Los superordenadores suelen explotar paralelismos masivos, a menudo con miles de procesadores, mientras que los ordenadores centrales tienen un solo o un pequeño número de procesadores (cuando mucho varias docenas).

·      Debido al paralelismo visible al programador, los superordenadores son muy complicados de programar; en los ordenadores centrales, el limitado paralelismo (si existe) está normalmente escondido del programador.

·      Los superordenadores son optimizados para cálculos complicados que tienen lugar sobre todo en la memoria, mientras que los ordenadores centrales son optimizados para cálculos simples que implican grandes cantidades de datos externos a los que se accede desde bases de datos.

·      Los superordenadores suelen dedicarse a la ciencia y al ejército, mientras que los ordenadores centrales suelen dedicarse a las empresas y las aplicaciones administrativas del gobierno.

Ordenador de sobremesa.

Un ordenador o computadora de sobremesa o de escritorio es un ordenador personal que está diseñado para estar colocado de forma permanente sobre un escritorio. El término sirve para distinguir este tipo de ordenadores principalmente de los ordenadores portátiles, pero también de otros ordenadores como los PDA, los servidores o los grandes mainframe.

El término proviene del inglés Desktop Computer y puede referirse a dos conceptos similares:

·      Los ordenadores de uso doméstico en hogares.

·      Los ordenadores de oficina que utilizan los empleados de una empresa.

Aunque se trata del mismo tipo de computadora, el uso que se hace de ellos y cómo se gestiona merecen un tratamiento diferenciado.

Ejemplo de ordenador de sobremesa.

Papel del ordenador de sobremesa.

Los ordenadores de uso doméstico suelen estar dedicados al entretenimiento (multimedia, videojuegos, etc.) y a tareas domésticas (contabilidad casera, escritos, etc.). Estos ordenadores carecen de gestión y mantenimiento ya que estas tareas son de poca importancia para un particular.

Sin embargo, la situación es bien distinta en el ámbito empresarial. Aquí el ordenador de escritorio es la herramienta de trabajo por excelencia. Se trata de un elemento esencial para la marcha de un negocio. El uso que se hace de ellos está relacionado con las tareas productivas y administrativas de los empleados: creación de informes, presentaciones, memorandos (véase suite ofimática), comunicación con otras empresas, contabilidad, gestión de tareas, etc. Por este motivo, el ordenador de sobremesa debe ser adecuadamente gestionado en el ámbito empresarial.

Obsérvese que mientras un particular debe preocuparse únicamente de una o dos computadoras, una empresa debe gestionar un parque de cientos o miles de ordenadores personales. En este sentido existen dos actuaciones complementarias.

Mantenimiento hardware.

El ordenador de sobremesa, como cualquier máquina, está sujeto a defectos y averías. La incidencia de una avería en un usuario doméstico suele reducirse a una mera molestia. En el ámbito empresarial el impacto de una avería supone como poco, la pérdida de tiempo de trabajo de un empleado. Pero existen casos donde existe pérdida monetaria y de imagen. Generalmente, en puestos de trabajo de atención al público. Por ejemplo, en las ventanillas de una oficina bancaria, o el puesto de trabajo de un broker de bolsa.

El mantenimiento de un ordenador de sobremesa suele durar de dos a cinco años. Esto obliga a las empresas a renovar su parque de ordenadores de sobremesa muy frecuentemente.

Mantenimiento software.

Todos los ordenadores necesitan software para funcionar. La instalación de software en miles de equipos repartidos por una oficina o diversas sedes no es nada trivial. Además, esta actividad es prácticamente obligatoria en la empresa. Las actualizaciones de software y los parches de seguridad son necesarios para evitar las mismas consecuencias que tendría una avería hardware. Los problemas típicos de una empresa respecto al software de escritorio son:

·      La presencia de software "pirata" o no autorizado. Esto puede derivar en serios perjuicios económicos, además del malfuncionamiento de software corporativo.

·      Incompatibilidades de las aplicaciones corporativas con el hardware o el sistema operativo. Cada computadora puede contar con una versión distinta de sistema operativo, controladores, etc.

·      Descontrol de las licencias de software comercial. Tanto software pagado pero no utilizado, como software que no se usa porque faltan licencias. La renovación y expiración de licencias también es un problema a considerar.

·      La configuración del software y el sistema operativo para cada usuario.

·      La distribución e instalación de software tanto corporativo como comercial.

Un error típico de las empresas es desarrollar (o comprar) software sin saber que características tienen los ordenadores personales donde debe ser usado. Por ejemplo, es frecuente desarrollar software para Windows XP y una versión concreta de Internet Explorer. Cuando llega el momento de su instalación resulta que parte del parque de ordenadores aún tiene instalado Windows 95 o una versión antigua del navegador.

La gestión del parque de ordenadores de sobremesa.

Existen tres enfoques:

La no-gestión. Consiste en no hacer nada y confiar en que el propio usuario solucionará sus problemas. Aunque puede parecer absurdo, es un enfoque válido cuando los costes de gestionar un ordenador son mayores que los costes de no hacer nada. Es un caso frecuente en empresas muy pequeñas (decenas de empleados).

La gestión reactiva. Consiste en mantener un equipo de personas que atienden las incidencias a medida que se van produciendo (a modo de "bombero"). Este enfoque es válido para parques pequeños de ordenadores de sobremesa. Habitual en empresas de tamaño medio. Sin embargo, es inviable en parques grandes. Por ejemplo, es impensable que un grupo de dos o tres personas tengan que recorrer doscientos puestos de trabajo, uno por uno, instalando software. El mayor problema de este enfoque es que el usuario sigue siendo responsable de coordinar todas las actuaciones necesarias (cosa nada trivial). Por ejemplo, resolver un problema puede implicar a diversos departamentos de la empresa e incluso a terceros (garantía del fabricante, servicio técnico, etc.).

La gestión proactiva. Consistente en un conjunto de medidas técnicas y organizativas que se describen a continuación.

Generalmente, las organizaciones suelen estar a caballo entre dos de estos enfoques, ya que se trata de una cuestión de madurez organizativa.

Medidas organizativas.

Generalmente, las grandes organizaciones disponen de un departamente organizado de atención a las incidencias en los puestos de usuario. Se suele denominar help desk o gestión de incidencias y puede estar externalizado. Este departamento suele estructurarse en dos niveles de soporte.

Atención primaria o de primer nivel.

El papel fundamental de esta unidad es la centralización de las incidencias, generalmente mediante un número único de teléfono. Esto es esencial de cara al usuario de la computadora. De otra manera se perdería mucho tiempo solamente en localizar a un técnico (como ocurre en la gestión reactiva). Cada incidencia es registrada y documentada, lo que ofrece cierta garantía al usuario de que el problema se resolverá. Además, esto proporciona información a los mandos directivos para la toma de decisiones y la localización de ineficiencias.

La mayoría de las incidencias corresponden a problemas conocidos que pueden ser resueltos en esta unidad gracias a argumentarios. Un argumentario describe un problema conocido y cómo resolverlo.

En caso de que no sea posible resolver una incidencia en este nivel, es dirigida al siguiente. Cuando se trata de incidencias responsabilidad de terceros, esta unidad es responsable de movilizar y coordinar los recursos necesarios con total transparencia para el usuario. Por ejemplo: dar aviso a un servicio técnico o reclamar la garantía de un fabricante.

Atención de segundo nivel.

Esta unidad tiene el cometido de resolver las incidencias que no se hayan producido con anterioridad, y documentarlas para que el soporte de primer nivel pueda solucionarlas en el futuro.

Medidas técnicas.

Existen diversas herramientas software que facilitan la gestión de un parque de ordenadores de sobremesa. Cabe destacar:

·      Herramientas de inventariado: automáticamente informan sobre el hardware y software que, efectivamente, se encuentra en cada puesto de trabajo. Esencial para la toma de decisiones.

·      Herramientas de distribución de software: permiten la instalación y actualización de software sin necesidad de presencia física de un técnico, gracias a las redes de telecomunicaciones.

·      Imágenes de disco: facilitan la instalación de una nueva computadora con el mínimo esfuerzo.

Microordenador.

Un microordenador es un ordenador que tiene un microprocesador en la unidad central de procesamiento.

Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel 4004, que salió el 15 de noviembre de 1971.

Desde el lanzamiento del ordenador personal de IBM, el IBM PC, el término ordenador personal se aplica a los microordenadores orientados a los consumidores. La primera generación de microordenadores fue conocida también como ordenadores domésticos. Se puede encontrar más información en esas secciones.

Fue el lanzamiento de la hoja de cálculo VisiCalc la que hizo que los microordenadores dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta de trabajo.

Ordenador doméstico.

El popular Sinclair ZX Spectrum utilizaba el microprocesador Z80.

En cierta manera, guardando cierta similaridad con las nuevas formas animales aparecidas en el periodo cámbrico, una gran cantidad de máquinas de todas las clases, incluyendo rarezas como el ordenador Jupiter Ace en lenguaje Forth aparecían en el mercado y desaparecían de nuevo. Algunos tipos de ordenadores permanecieron durante más tiempo, otros como el BBC Micro todavía tienen devotos seguidores. Sin embargo, al final de la década la mayoría fueron eliminados por el ordenador personal compatible con IBM y las generaciones más nuevas de consolas de videojuegos porque ambas utilizaban sus propios formatos incompatibles. La revolución IBM fue provocada en 1981 por la salida del ordenador personal de IBM (5150).

Muchos de estos ordenadores eran superficialmente similares y tenían usualmente un teclado de fabricación barata integrado con la unidad del procesador que mostraba sus resultados en una televisión casera. Muchos utilizaban casetes de audio compactos como mecanismo (notoriamente poco fiable) de almacenamiento de datos ya que las unidades de disco flexible eran muy caras en aquella época. Su bajo precio era común a la mayoría de los ordenadores.

La mayoría de los ordenadores utilizan un sistema operativo que actúa como interfaz entre el operador y los dispositivos físicos internos del ordenador y la unidad central de procesamiento. Los programas son cualquier aplicación adicional que se sitúa por encima del sistema operativo para llevar a cabo un proceso específico, por ejemplo, un procesador de textos.

Como muchos de los ordenadores se han quedado obsoletos se ha hecho popular entre los aficionados el preparar un ordenador para que pueda emular a otro a través del uso de programas de emulación. Por lo tanto, muchos de los entornos operativos para los ordenadores que se muestran más abajo pueden ser recreados en un ordenador personal (OP) moderno.

El ordenador personal se basaba generalmente en la tecnología del microprocesador de 8 bits, casi siempre el Zilog Z80 o el MOS Technology 6502. Durante los ochenta se diseñaron una gran variedad de ordenadores domésticos de 8 bits, pero también hubo una segunda ola basada en el microprocesador de 16 bits, como por ejemplo el Motorola 68000.

Ordenador Integrado o Sistema Integrado

Un sistema embebido (a veces traducido del inglés como embebido, empotrado o incrustado) es un sistema informático de uso específico construido dentro de un dispositivo mayor. Los sistemas integrados se utilizan para usos muy diferentes de los usos generales para los que se emplea un ordenador personal. En un sistema integrado la mayoría de los componentes se encuentran incluidos en la placa base (motherboard) (la tarjeta de vídeo, audio, módem, etc.).

Dos de las diferencias principales son el precio y el consumo. Puesto que los sistemas integrados se pueden fabricar por decenas de millares o por millones de unidades, una de las principales preocupaciones es reducir los costos. Los sistemas integrados suelen usar un procesador relativamente pequeño y una memoria pequeña para reducir los costes. Se enfrentan, sobre todo, al problema de que un fallo en un elemento implica la necesidad de reparar la placa íntegra.

Lentitud no significa que vayan a la velocidad del reloj. En general, se suele simplificar toda la arquitectura del ordenador o computadora para reducir los costes. Por ejemplo, los sistemas integrados emplean a menudo periféricos controlados por interfaces síncronos en serie, que son de diez a cientos de veces más lentos que los periféricos de un ordenador o computadora personal normal. Los primeros equipos integrados que se desarrollaron fueron elaborados por IBM en los años 1980.

Los programas de sistemas integrados se enfrentan normalmente a problemas de tiempo real.

Componentes de un Sistema Integrado.

En la parte central se encuentra el microprocesador, microcontrolador, DSP, etc. Es decir la CPU o unidad que aporta inteligencia al sistema. Según el sistema puede incluir memoria interna o externa, un micro con arquitectura especifica según requisitos.

La comunicación adquiere gran importancia en los sistemas integrados. Lo normal es que el sistema pueda comunicarse mediante interfaces estandar de cable o inalámbricas. Así un SE normalmente incorporará puertos de comunicaciones del tipo RS232, RS485, SPI, I²C, CAN, USB, IP, WiFi, GSM, GPRS, DSRC, etc.

El subsistema de presentacion tipo suele ser una pantalla gráfica, táctil, LCD, alfanumérico, etc.

Denominamos actuadores a los posibles elementos electrónicos que el sistema se encarga de controlar. Puede ser un motor eléctrico, un conmutador tipo relé etc. El más habitual puede ser una salida de señal PWM para control de la velocidad en motores de corriente continua.

El módulo de E/S analógicas y digitales suele emplearse para digitalizar señales analógicas procedentes de sensores, activar diodos LED, reconocer el estado abierto cerrado de un conmutador o pulsador, etc.

El módulo de reloj es el encargado de generar las diferentes señales de reloj a partir de un único oscilador principal. El tipo de oscilador es importante por varios aspectos: por la frecuencia necesaria, por la estabilidad necesaria y por el consumo de corriente requerido. El oscilador con mejores características en cuanto a estabilidad y coste son los basados en resonador de cristal de cuarzo, mientras que los que requieren menor consumo son los RC. Mediante sistemas PLL se obtienen otras frecuencias con la misma estabilidad que el oscilador patrón.

El módulo de energía (power) se encarga de generar las diferentes tensiones y corrientes necesarias para alimentar los diferentes circuitos del SE. Usualmente se trabaja con un rango de posibles tensiones de entrada que mediante conversores ac/dc o dc/dc se obtienen las diferentes tensiones necesarias para alimentar los diversos componentes activos del circuito.

Además de los conversores ac/dc y dc/dc, otros módulos típicos, filtros, circuitos integrados supervisores de alimentación, etc. El consumo de energía puede ser determinante en el desarrollo de algunos SE que necesariamente se alimentan con baterías y es imposible su sustitución, con lo que la vida del SE suele ser vida de las baterías.

Microprocesadores y sistemas embebidos.

Un microprocesador es una implementación en forma de circuito integrado (IC) de la Unidad Central de Proceso CPU de un ordenador. Frecuentemente nos referimos a un microprocesador como simplemente “CPU”, y la parte de un sistema que contiene al microprocesador se denomina subsistema de CPU. Los microprocesadores varían en consumo de potencia, complejidad y coste. Los hay de unos pocos miles de transistores y con coste inferior a 2 euros (en producción masiva) hasta de más de cinco millones de transistores que cuestan más de 600 euros.

Los subsistemas de entrada/salida y memoria pueden ser combinados con un subsistema de CPU para formar un ordenador o sistem integrado completo. Estos subsistemas se interconectan mediante los buses de sistema (formados a su vez por el bus de control, el bus de direcciones y el bus de datos).

El subsistema de entrada acepta datos del exterior para ser procesados mientras que el subsistema de salida transfiere los resultados hacia el exterior. Lo más habitual es que haya varios subsistemas de entrada y varios de salida. A estos subsistemas se les reconoce habitualmente como periféricos de E/S.

El subsistema de memoria almacena las instrucciones que controlan el funcionamiento del sistema. Estas instrucciones comprenden el programa que ejecuta el sistema. La memoria también almacena varios tipos de datos: datos de entrada que aún no han sido procesados, resultados intermedios del procesado y resultados finales en espera de salida al exterior.

Es importante darse cuenta de que los subsistemas estructuran a un sistema según funcionalidades. La subdivisión física de un sistema, en términos de circuitos integrados o placas de circuito impreso (PCBs) puede y es normalmente diferente. Un solo circuito integrado (IC) puede proporcionar múltiples funciones, tales como memoria y entrada/salida.

Un microcontrolador (MCU) es un IC que incluye una CPU, memoria y circuitos de E/S. Entre los subsistemas de E/S que incluyen los microcontroladores se encuentran los temporizadores, los convertidores analógico a digital (ADC) y digital a analógico (DAC) y los canales de comunicaciones serie. Estos subsistemas de E/S se suelen optimizar para aplicaciones específicas (por ejemplo audio, video, procesos industriales, comunicaciones, etc.).

Hay que señalar que las líneas reales de distinción entre microprocesador, microcontrolador y microcomputador en un solo chip están difusas, y se denominan en ocasiones de manera indistinta unos y otros.

En general, un SE consiste en un sistema con microprocesador cuyo hardware y software están específicamente diseñados y optimizados para resolver un problema concreto eficientemente. Normalmente un SE interactúa continuamente con el entorno para vigilar o controlar algún proceso mediante una serie de sensores. Su hardware se diseña normalmente a nivel de chips, o de interconexión de PCBs, buscando la mínima circuitería y el menor tamaño para una aplicación particular. Otra alternativa consiste en el diseño a nivel de PCBs consistente en el ensamblado de placas con microprocesadores comerciales que responden normalmente a un estándar como el PC-104 (placas de tamaño concreto que se interconectan entre sí “apilándolas” unas sobre otras, cada una de ellas con una funcionalidad específica dentro del objetivo global que tenga el SE). Esta última solución acelera el tiempo de diseño pero no optimiza ni el tamaño del sistema ni el número de componentes utilizados ni el coste unitario. En general, un sistema embebido simple contará con un microprocesador, memoria, unos pocos periféricos de E/S y un programa dedicado a una aplicación concreta almacenado permanentemente en la memoria. El término embebido o empotrado hace referencia al hecho de que el microcomputador está encerrado o instalado dentro de un sistema mayor y su existencia como microcomputador puede no ser aparente. Un usuario no técnico de un sistema embebido puede no ser consciente de que está usando un sistema computador. En algunos hogares las personas, que no tienen por qué ser usuarias de un ordenador personal estándar (PC), utilizan del orden de diez o más sistemas embebidos cada día.

Los microcomputadores embebidos en estos sistemas controlan electrodomésticos tales como: televisores, videos, lavadoras, alarmas, teléfonos inalámbricos, etc. Incluso un PC tiene microcomputadores embebidos en el monitor, impresora, y periféricos en general, adicionales a la CPU del propio PC. Un automóvil puede tener hasta un centenar de microprocesadores y microcontroladores que controlan cosas como la ignición, transmisión, dirección asistida, frenos antibloqueo (ABS), control de la tracción, etc.

Los sistemas embebidos se caracterizan normalmente por la necesidad de dispositivos de E/S especiales. Cuando se opta por diseñar el sistema embebido partiendo de una placa con microcomputador también es necesario comprar o diseñar placas de E/S adicionales para cumplir con los requisitos de la aplicación concreta.

Muchos sistemas embebidos son sistemas de tiempo real. Un sistema de tiempo real debe responder, dentro de un intervalo restringido de tiempo, a eventos externos mediante la ejecución de la tarea asociada con cada evento. Los sistemas de tiempo real se pueden caracterizar como blandos o duros. Si un sistema de tiempo real blando no cumple con sus restricciones de tiempo, simplemente se degrada el rendimiento del sistema, pero si el sistema es de tiempo real duro y no cumple con sus restricciones de tiempo, el sistema fallará. Este fallo puede tener posiblemente consecuencias catastróficas.

Un sistema embebido complejo puede utilizar un sistema operativo como apoyo para la ejecución de sus programas, sobre todo cuando se requiere la ejecución simultánea de los mismos. Cuando se utiliza un sistema operativo lo más probable es que se tenga que tratar de un sistema operativo en tiempo real (RTOS), que es un sistema operativo diseñado y optimizado para manejar fuertes restricciones de tiempo asociadas con eventos en aplicaciones de tiempo real. En una aplicación de tiempo real compleja la utilización de un RTOS multitarea puede simplificar el desarrollo del software.

Arquitecturas de computadores más empleadas.

Arquitectura básica.

Un PC embebido posee una arquitectura semejante a la de un PC. Brevemente éstos son los elementos básicos:

Microprocesador.

Es el encargado de realizar las operaciones de cálculo principales del sistema. Ejecuta código para realizar una determinada tarea y dirige el funcionamiento de los demás elementos que le rodean, a modo de director de una orquesta.

Memoria.

En ella se encuentra almacenado el código de los programas que el sistema puede ejecutar así como los datos. Su característica principal es que debe tener un acceso de lectura y escritura lo más rápido posible para que el microprocesador no pierda tiempo en tareas que no son meramente de cálculo. Al ser volátil el sistema requiere de un soporte donde se almacenen los datos incluso sin disponer de alimentación o energía.

Caché.

Memoria más rápida que la principal en la que se almacenan los datos y el código accedido últimamente. Dado que el sistema realiza microtareas, muchas veces repetitivas, la caché hace ahorrar tiempo ya que no hará falta ir a memoria principal si el dato o la instrucción ya se encuentra en la caché. Dado su alto precio tiene un tamaño muy inferior (8 – 512 KB) con respecto a la principal (8 – 256 MB). En el interior del chip del microprocesador se encuentra una pequeña caché (L1), pero normalmente se tiene una mayor en otro chip de la placa madre (L2) m.

Disco duro.

En él la información no es volátil y además puede conseguir capacidades muy elevadas. A diferencia de la memoria que es de estado sólido éste suele ser magnético. Pero su excesivo tamaño a veces lo hace inviable para PCs embebidos, con lo que se requieren soluciones como discos de estado sólido. Existen en el mercado varias soluciones de esta clase (DiskOnChip, CompactFlash, IDE Flash Drive, etc.) con capacidades suficientes para la mayoría de sistemas embebidos (desde 2 hasta mas de 1 GB). El controlador del disco duro de PCs estándar cumple con el estándar IDE y es un chip más de la placa madre.

 

Disco flexible.

Su función es la de un disco duro pero con discos con capacidades mucho más pequeñas y la ventaja de su portabilidad. Siempre se encuentra en un PC estándar pero no así en un PC embebido.

BIOS-ROM.

BIOS (Basic Input & Output System, sistema básico de entrada y salida) es código que es necesario para inicializar el ordenador y para poner en comunicación los distintos elementos de la placa madre. La ROM (Read Only Memory, memoria de sólo lectura no volátil) es un chip donde se encuentra el código BIOS.

CMOS-RAM.

Es un chip de memoria de lectura y escritura alimentado con una pila donde se almacena el tipo y ubicación de los dispositivos conectados a la placa madre (disco duro, puertos de entrada y salida, etc.). Además contiene un reloj en permanente funcionamiento que ofrece al sistema la fecha y la hora.

Chip Set.

Chip que se encarga de controlar las interrupciones dirigidas al microprocesador, el acceso directo a memoria (DMA) y al bus ISA, además de ofrecer temporizadores, etc. Es frecuente encontrar la CMOS-RAM y el reloj de tiempo real en el interior del Chip Set.

Entradas al sistema.

Pueden existir puertos para ratón, teclado, vídeo en formato digital, comunicaciones serie o paralelo, etc.

Salidas del sistema.

Puertos de vídeo para monitor o televisión, pantallas de cristal líquido, altavoces, comunicaciones serie o paralelo, etc.

Ranuras de expansión para tarjetas de tareas específicas.

Que pueden no venir incorporadas en la placa madre, como pueden ser más puertos de comunicaciones, acceso a red de ordenadores vía LAN (Local Area Network, red de área local) o vía red telefónica: básica, RDSI (Red Digital de Servicios Integrados), ADSL (Asynchronous Digital Subscriber Loop, Lazo Digital Asíncrono del Abonado), etc. Un PC estándar suele tener muchas más ranuras de expansión que un PC embebido. Las ranuras de expansión están asociadas a distintos tipos de bus: VESA, ISA, PCI, NLX (ISA + PCI), etc.

Hoy en día existen en el mercado fabricantes que integran un microprocesador y los elementos controladores de los dispositivos fundamentales de entrada y salida en un mismo chip, pensando en las necesidades de los sistemas embebidos (bajo coste, pequeño tamaño, entradas y salidas específicas,...). Su capacidad de proceso suele ser inferior a los procesadores de propósito general pero cumplen con su cometido ya que los sistemas donde se ubican no requieren tanta potencia. Los principales fabricantes son ST Microelectronics (familia de chips STPC), National (familia Geode), Motorola (familia ColdFire) e Intel.

En cuanto a los sistemas operativos necesarios para que un sistema basado en microprocesador pueda funcionar y ejecutar programas suelen ser específicos para los sistemas embebidos. Así nos encontramos con sistemas operativos de bajos requisitos de memoria, posibilidad de ejecución de aplicaciones de tiempo real, modulares (inclusión sólo de los elementos necesarios del sistema operativo para el sistema embebido concreto), etc. Los más conocidos en la actualidad son Windows CE, QNX y VxWorks de WindRiver.

Aplicaciones de un sistema embebido.

Los lugares donde se pueden encontrar los sistemas embebidos son numerosos y de varias naturalezas. A continuación se exponen varios ejemplos para ilustrar las posibilidades de los mismos:

En una fábrica, para controlar un proceso de montaje o producción. Una máquina que se encargue de una determinada tarea hoy en día contiene numerosos circuitos electrónicos y eléctricos para el control de motores, hornos, etc. que deben ser gobernados por un procesador, el cual ofrece un interfaz persona – máquina para ser dirigido por un operario e informarle al mismo de la marcha del proceso.

Puntos de servicio o venta (POS, Point Of Service). Las cajas donde se paga la compra en un supermercado son cada vez más completas, integrando teclados numéricos, lectores de códigos de barras mediante láser, lectores de tarjetas bancarias de banda magnética o chip, pantalla alfanumérica de cristal líquido, etc. El sistema embebido en este caso requiere numerosos conectores de entrada y salida y unas características robustas para la operación continuada.

Puntos de información al ciudadano. En oficinas de turismo, grandes almacenes, bibliotecas, etc. existen equipos con una pantalla táctil donde se puede pulsar sobre la misma y elegir la consulta a realizar, obteniendo una respuestapersonalizada en un entorno gráfico amigable.

Decodificadores y set-top boxes para la recepción de televisión. Cada vez existe un mayor número de operadores de televisión que aprovechando la tecnología vía satélite y de red de cable ofrecen un servicio de televisión de pago diferenciado del convencional. En primer lugar envían la señal en formato digital MPEG-2 con lo que es necesario un procesado para decodificarla y mandarla al televisor. Además viaja cifrada para evitar que la reciban en claro usuarios sin contrato, lo que requiere descifrarla en casa del abonado. También ofrecen un servicio de televisión interactiva o web-TV que necesita de un software específico para mostrar páginas web y con ello un sistema basado en procesador con salida de señal de televisión.

Sistemas radar de aviónes. El procesado de la señal recibida o reflejada del sistema radar embarcado en un avión requiere alta potencia de cálculo además de ocupar poco espacio, pesar poco y soportar condiciones extremas de funcionamiento (temperatura, presión atmosférica, vibraciones, etc.).

Equipos de medicina en hospitales y ambulancias UVI – móvil.

Máquinas de revelado automático de fotos.

Cajeros automáticos.

Pasarelas (Gateways) Internet-LAN.

Y un sin fin de posibilidades aún por descubrir o en estado embrionario como son las neveras inteligentes que controlen su suministro vía Internet, PCs de bolsillo, etc.

Ventajas de un sistema embebido sobre las soluciones industriales tradicionales.

Los equipos industriales de medida y control tradicionales están basados en un microprocesador con un sistema operativo propietario o específico para la aplicación correspondiente. Dicha aplicación se programa en ensamblador para el microprocesador dado o en lenguaje C, realizando llamadas a las funciones básicas de ese sistema operativo que en ciertos casos ni siquiera llega a existir. Con los modernos sistemas PC embebido basados en microprocesadores i486 o i586 se llega a integrar el mundo del PC compatible con las aplicaciones industriales. Ello implica numerosas ventajas:

·      Posibilidad de utilización de sistemas operativos potentes que ya realizan numerosas tareas: comunicaciones por redes de datos, soporte gráfico, concurrencia con lanzamiento de threads, etc. Estos sistemas operativos pueden ser los mismos que para PCs compatibles (Linux,Windows, MS-DOS) con fuertes exigencias en hardware o bien ser una versión reducida de los mismos con características orientadas a los PCs embebidos.

·      Al utilizar dichos sistemas operativos se pueden encontrar fácilmente herramientas de desarrollo software potentes así como numerosos programadores que las dominan, dada la extensión mundial de las aplicaciones para PCs compatibles.

·      Reducción en el precio de los componentes hardware y software debido a la gran cantidad de PCs en el mundo.

Ordenador personal PC.

Dibujo de un ordenador de mesa.

El término ordenador personal o computadora personal (en inglés Personal Computer o PC) tiene tres significados:

La gama de ordenadores personales de IBM que originaron el uso del término: veáse IBM PC.

Término genérico utilizado para referirse a microordenadores que son compatibles con las especificaciones de IBM.

Término genérico utilizado a veces para referirse a todos los microordenadores. 

Un ordenador personal es generalmente de tamaño medio y es, en general, usada por un solo usuario (aunque hay sistemas operativos que permiten varios usuarios simultáneamente, lo que es conocido como multiusuario).

Una computadora personal suele estar equipada para cumplir tareas comunes de la informática moderna, es decir que permite navegar por Internet, escribir textos y realizar otros trabajos de oficina además de escuchar música, ver videos, jugar, etc.

Historia.

La primera generación de microordenadores también eran conocidos como ordenadores domésticos y se discuten en ese artículo.

Un ordenador personal es un microordenador barato, diseñado en principio para ser usado por una sola persona cada vez, y que es compatible con el PC de IBM (aunque en el lenguaje corriente se pude referir también a equipos incompatibles).

El uso más antiguo que se conoce del término apareció en la revista New Scientist en 1964, en una serie de artículos llamados «El mundo en 1984». En un artículo titulado The Banishment of Paper Work, Arthur L. Samuel, del Centro de Investigación Watson de IBM escribió: «Hasta que no sea viable obtener una educación en casa, a través de nuestro propio ordenador personal, la naturaleza humana no habrá cambiado».

La primera generación de microordenadores que comenzó a fabricarse en los años setenta (veáse Ordenador doméstico) eran mucho menos polifacéticos y potentes que los ordenadores de las empresas de aquel entonces, y en general eran utilizados por los entusiastas de la informática o para jugar. Fue el lanzamiento de la hoja de cálculo VisiCal, en principio para Apple II y después para el IBM PC, la verdadera aplicación triunfal que convirtió al microordenador en una herramienta de trabajo. El bajo coste de los ordenadores personales le hizo adquirir una gran popularidad tanto para las familias como para los trabajadores en los años ochenta.

En los noventa el poder de los ordenadores personales aumentó de manera radical, borrando la frontera desfasada que había entre los ordenadores personales y los ordenadores de varios usuarios como los ordenadores centrales. Hoy los ordenadores de gama alta se distinguen de los ordenadores personales por su mayor fiabilidad o su mayor habilidad para realizar multitareas y no por la potencia de la UCP.

La mayoría de los ordenadores personales utilizan una arquitectura de soporte físico compatible con el PC de IBM, usando procesadores compatibles con x86 realizados por Intel, AMD o Cyrix. En cuanto a su movilidad podemos distinguir entre:

Ordenador de sobremesa.

Ordenador portátil.

Ordenador portable.

Ordenadores personales incompatibles con IBM.

A pesar de la enorme popularidad del ordenador personal, varios microordenadores incompatibles con IBM (también llamados de manera general ordenadores personales) son todavía populares para determinados usos específicos. La principal alternativa es el sistema operativo Mac OS X de Apple Computer, basado en la arquitectura de ordenador del PowerPC, que se usa sobre todo para diseño gráfico usos relacionados, aunque vale perfectamente para un ususario doméstico.

Ordenador pizarra.

Toshiba Portege 3500 Tablet PC

Un ordenador pizarra, comercialmente denominado Tablet PC, es un ordenador a medio camino entre un ordenador portátil y un PDA, en el que se puede escribir a través de una pantalla de tacto. Un usuario puede utilizar un “lápiz” para trabajar con el ordenador sin necesidad de teclado o ratón. Este aparato fue propugnado por Microsoft y otros fabricantes.

Esta modalidad de ordenador portátil ha supuesto un avance significativo en la aplicación de los estudios en Lingüística computacional.

Existen modelos que sólo aportan la pantalla táctil a modo de pizarra, siendo así muy ligeros. También hay ordenadores portátiles con teclado y ratón, llamados convertibles, que permiten rotar la pantalla y colocarla como si de una pizarra se tratase, para su uso como Tablet PC.

El sistema operativo que utilizan estos dispositivos es una evolución del Windows XP Profesional optimizado para trabajar con procesadores mobile, que consumen menos energía. El software especial que nos proporciona el sistema operativo nos permite realizar escritura manual, y llevan una especie de lápiz para poder tomar notas a mano alzada y dibujar sobre la pantalla. Así, es útil para hacer trabajos de campo.

La empresa española Tuxum ha creado el primer ordenador pizarra que funciona con GNU/Linux, concretamente con una metadistribución de Debian, adaptada para añadirle reconocimiento de escritura.

Ordenador portátil.

Foto de un IBook de Apple

Un ordenador portátil (conocido en inglés como laptop o notebook) es un pequeño ordenador personal móvil, que pesa normalmente entre 1 y 3 kilogramos. Los portátiles son capaces de realizar la mayor parte de las tareas que realizan los ordenadores de sobremesa, con la ventaja de la movilidad.

Componentes.

Tienen muchos de sus componentes similares a los odenadores de sobremesa pero habitualmente son de menor tamaño. Como componentes comunes cabe citar:

·      CPU de bajo consumo: Intel Pentium M o AMD Turion 64.

·      Pantalla integrada tipo TFT, que a su vez realiza la función de tapa del portátil facilitando su transporte.

·      Disco duro de 2,5 pulgadas o menor, frente a los discos de 3,5 pulgadas de los sobremesa.

·      Unidad lectora y grabadora de CD o DVD de formato reducido.

·      Módulos de memoria RAM SO DIMM (Small Outline DIMM) más pequeños que los DIMM usuales en los ordenadores de sobremesa.

·      Teclado integrado.

·      Panel táctil para manejar el puntero en lugar de ratón.

Portátiles más comunes.

·      iBook y PowerBook de Apple Computer.

·      Acer.

·      ASUS.

·      bacoc.

·      Dell Inspiron y Latitude.

·      Dynabook de Toshiba.

·      EasyNote de Packard Bell.

·      Fujitsu.

·      NEC Corporation.

·      ThinkPad de Lenovo.

·      Sony Vaio.

Ordenador portátil de sobremesa.

Hibrido entre ordenador de sobremesa (desktop computer, en inglés) y ordenador portátil (notebook).

ECS introdujo el ordenador portátil de sobremesa al mundo de los ordenadores a finales de 2001.

Un ordenador portátil de sobremesa en una mezcla entre ordenador portátil y ordenador de sobremesa. Es un ordenador portátil con todas sus características, que lleva la potencia más reciente y la mejor tecnología en ordenadores de sobremesa con la misma velocidad de un ordenador de sobremesa.

Un ordenador portátil de sobremesa tiene las mismas especificaciones que un ordenador de sobremesa. En la actualidad, un ordenador de sobremesa puede soportar cualquier tipo de UCP, memoria, gráficos… Por lo tanto, un ordenador portátil de sobremesa debería poder ofrecer el mismo tipo de soporte, sobre todo la especificación de la UCP y la memoria. Algunas ventajas de los ordenadores de sobremesa:

Tradicionalmente, un usuario de portátil tenía que esperar a que se lanzara una especificación similar a la de un ordenador de sobremesa de 9 a 12 meses. Con los ordenadores portátiles de sobremesa, se reduce esta espera. Puedes disfrutar de la misma tecnología, sin esperar tanto tiempo y mantener la manejabilidad usual utilizando un producto para ordenadores de sobremesa.

Tiene la misma cantidad de puertos o más que un ordenador de sobremesa. El ordenador portátil de sobremesa también tiene entrada de PCMCIA, como la tienen la mayoría de los ordenadores portátiles para el modem, LAN y salida de televisión, pero el ordenador portátil de sobremesa también cuenta con modem, LAN y salidad de televisión. El ordenador portátil de sobremesa también tiene puertos USB, WiFi y bluetooth para expansiones y conexiones como CD-ROM, impresora, teléfonos móviles y para otros dispositivos móviles.

La actualización y el recambio de partes es más fácil que con un ordenador de sobremesa para: UCP, RAM, unidades de disco duro, placas madre, monitores LCD y chasis. Todas ellas pueden ser cambiadas por el usuario.

Puede incluir una « batería externa » y un bastidor vacío para una futura batería interior para funcionar de la misma manera que un ordenador de sobremesa tradicional.

Y tiene las mismas ventajas de un portátil: los ordenadores portátiles de sobremesa deben tener las ventajas y movilidad de un ordenador portátil, debe ser llevable y mucho más ligero y pequeño que un ordenador de sobremesa. Los ordenadores portátiles de sobremesa son ideales para aquellos que quieran tener un ordenador personal de gran potencia y transportable para usarlo en lugares con muy poco espacio. Ventajas:

·      Panel de pantalla grande, claro y plano (la pantalla ocupa menos espacio sin sacrificio de área de visión).

·      Bastidores modulares quitables (no en los ordenadores de sobremesa).

·      menos consumo de energía y movilidad.

Ocupa poco espacio (más espacio libre).

·      Peso ligero y se puede transportar de una sola pieza.

Menos cables y confusión que en un ordenador de sobremesa.

Servidor informático.

Un servidor en informática o computación es:

·      Una aplicación informática o programa que realiza algunas tareas en beneficio de otras aplicaciones llamadas clientes. Algunos servicios habituales son los servicios de archivos, que permiten a los usuarios almacenar y acceder a los archivos de un ordenador y los servicios de aplicaciones, que realizan tareas en beneficio directo del usuario final. Este es el significado original del término. Es posible que un ordenador cumpla simultáneamente las funciones de cliente y de servidor.

·      El ordenador en el que se ejecutan dichos programas, tanto si se trata de un ordenador central (mainframe), un miniordenador, un ordenador personal, un PDA o un sistema integrado. Sin embargo, hay ordenadores destinados únicamente a proveer los servicios de estos programas: estos son los servidores por antonomasia.

Cliente-servidor.

La arquitectura cliente-servidor llamado modelo cliente-servidor o servidor-cliente es una forma de dividir y especializar programas y equipos de cómputo a fin de que la tarea que cada uno de ellos realiza se efectúe con la mayor eficiencia, y permita simplificar las actualizaciones y mantenimiento del sistema.

En esta arquitectura la capacidad de proceso está repartida entre el servidor y los clientes.

En la funcionalidad de un programa distribuido se pueden distinguir 3 capas o niveles:

1.   Manejador de Base de Datos (Nivel de almacenamiento).

2.   Procesador de aplicaciones o reglas del negocio (Nivel lógico).

3.   Interface del usuario (Nivel de presentación).

En una arquitectura monolítica no hay distribución; los tres niveles tienen lugar en el mismo equipo.

En un comienzo, los mainframes concentraban la funcionalidad de almacenamiento (#1) y lógica (#2) y a ellos se conectaban terminales tontas, posiblemente ubicadas en sitios remotos.

En el modelo cliente-servidor, en cambio, el trabajo se reparte entre dos ordenadores. De acuerdo con la distribución de la lógica de la aplicación hay dos posibilidades:

1.   Cliente delgado: si el cliente solo se hace cargo de la presentación.

2.   Cliente pesado: si el cliente asume también la lógica del negocio.

En la actualidad se suele hablar de arquitectura de tres niveles, donde la capa de almacenamiento y la de aplicación se ubican en (al menos) dos servidores diferentes, conocidos como servidores de datos y servidores de aplicaciones.

Ventajas de la arquitectura cliente-servidor.

·      El servidor no necesita tanta potencia de procesamiento, parte del proceso se reparte con los clientes.

·      Se reduce el tráfico de red considerablemente. Idealmente, el cliente se conecta al servidor cuando es estrictamente necesario, obtiene los datos que necesita y cierra la conexión dejando la red libre.

Servidor de correo.

Un servidor de correo es una aplicación que nos permite enviar mensajes (correos) de unos usuarios a otros con independencia de la red que dichos usuarios estén utilizando.

Para lograrlo se definen una serie de protocolos, cada uno con una finalidad concreta:

·      SMTP, Simple Mail Transfer Protocol: Es el protocolo que se utiliza para que dos servidores de correo intercambien mensajes.

·      POP, Post Office Protocol: Se utiliza para obtener los mensajes guardados en el servidor y pasárselos al usuario.

·      IMAP, Internet Message Access Protocol: Su finalidad es la misma que la de POP, pero el funcionamiento y las funcionalidades que ofrecen son diferentes.

Así pues, un servidor de correo consta en realidad de dos servidores: un servidor SMTP que será el encargado de enviar y recibir mensajes, y un servidor POP/IMAP que será el que permita a los usuarios obtener sus mensajes.

Para obtener los mensajes del servidor, los usuarios se sirven de clientes, es decir, programas que implementan un protocolo POP/IMAP. En algunas ocasiones el cliente se ejecuta en la máquina del usuario (como el caso de Mozilla Mail, Evolution, Microsoft Outlook). Sin embargo existe otra posibilidad: que el cliente de correo no se ejecute en la máquina del usuario; es el caso de los clientes vía web, como Hotmail, SquirrelMail, OpenWebmail o Terra. En ellos la arquitectura del servicio es más compleja:

En una máquina (A) tenemos el servidor SMTP y el servidor POP/IMAP. En otra (B) tenemos un servidor web con una aplicación cliente POP/IMAP. El usuario conecta vía WEB con (B) y entonces el cliente POP/IMAP establece una conexión POP/IMAP con el servidor de la máquina A; éste servidor le devuelve a B los mensajes del usuario, y una vez recibidos, el cliente genera una página web con los mensajes recibidos. La página web se pasa al servidor web que será el que la envíe al explorador web del usuario.

En cualquier caso, los protocolos SMTP/POP/IMAP son inseguros en cuanto a que los mensajes viajan en claro por la red, es decir, es fácil obtener nuestros mensajes y contraseñas. Para ello se suele añadir una capa SSL, es decir, un método de encriptación que puedan implementar tanto el servidor como el cliente. En el caso del correo vía web se pueden utilizar dos capas SSL: una entre A y B y otra entre el servidor web de B y el navegador web del usuario.

Servidor web.

Un servidor web es un programa que implementa el protocolo HTTP (hypertext transfer protocol). Este protocolo está diseñado para transferir lo que llamamos hipertextos, páginas web o páginas HTML (hypertext markup language): textos complejos con enlaces, figuras, formularios, botones y objetos incrustados como animaciones o reproductores de sonidos.

Servidor web de la Fundación Wikimedia.

Sin embargo, el hecho de que HTTP y HTML estén íntimamente ligados no debe dar lugar a confundir ambos términos. HTML es un formato de archivo y HTTP es un protocolo.

Cabe destacar el hecho de que la palabra servidor identifica tanto al programa como a la máquina en la que dicho programa se ejecuta. Existe, por tanto, cierta ambigüedad en el término, aunque no será difícil diferenciar a cuál de los dos nos referimos en cada caso. En este artículo nos referiremos siempre a la aplicación.

Un servidor web se encarga de mantenerse a la espera de peticiones HTTP llevada a cabo por un cliente HTTP que solemos conocer como navegador. El navegador realiza una petición al servidor y éste le responde con el contenido que el cliente solicita. A modo de ejemplo, al teclear www.wikipedia.org en nuestro navegador, éste realiza una petición HTTP al servidor de dicha dirección. El servidor responde al cliente enviando el código HTML de la página; el cliente, una vez recibido el código, lo interpreta y lo muestra en pantalla. Como vemos con este ejemplo, el cliente es el encargado de interpretar el código HTML, es decir, de mostrar las fuentes, los colores y la disposición de los textos y objetos de la página; el servidor tan sólo se limita a transferir el código de la página sin llevar a cabo ninguna interpretación de la misma.

Sobre el servicio web clásico podemos disponer de aplicaciones web. Éstas son fragmentos de código que se ejecutan cuando se realizan ciertas peticiones o respuestas HTTP. Hay que distinguir entre:

·      Aplicaciones en el lado del cliente: el cliente web es el encargado de ejecutarlas en la máquina del usuario. Son las aplicaciones tipo Java o Javascript: el servidor proporciona el código de las aplicaciones al cliente y éste, mediante el navegador, las ejecuta. Es necesario, por tanto, que el cliente disponga de un navegador con capacidad para ejecutar aplicaciones (también llamadas scripts). Normalmente, los navegadores permiten ejecutar aplicaciones escritas en lenguaje javascript y java, aunque pueden añadirse mas lenguajes mediante el uso de plugins.

·      Aplicaciones en el lado del servidor: el servidor web ejecuta la aplicación; ésta, una vez ejecutada, genera cierto código HTML; el servidor toma este código recién creado y lo envía al cliente por medio del protocolo HTTP.

Las aplicaciones de servidor suelen ser la opción por la que se opta en la mayoría de las ocasiones para realizar aplicaciones web. La razón es que, al ejecutarse ésta en el servidor y no en la máquina del cliente, éste no necesita ninguna capacidad adicional, como sí ocurre en el caso de querer ejecutar aplicaciones javascript o java. Así pues, cualquier cliente dotado de un navegador web básico puede utilizar este tipo de aplicaciones. Algunos conceptos relacionados con las aplicaciones web son:

·      PHP

·      ASP

·      Perl

·      CGI

·      .NET

·      JSP (Tecnología Java )

Algunos servidores web importantes son:

·      Apache

·      IIS

Otros servidores, más simples pero más rápidos, son:

·      lighttpd

·      thttpd

Servidor de aplicaciones.

Un servidor de aplicaciones es un ordenador servidor en red dedicado a ejecutar ciertas aplicaciones software. El término también se refiere al software instalado en tal ordenador para facilitar la ejecución de otras aplicaciones.

Debido al éxito de la plataforma Java, el término "servidor de aplicaciones" normalmente se refiere a un servidor de aplicaciones J2EE. WebSphere (IBM) y Weblogic (BEA) son los más conocidos comercialmente.

El lenguaje elegido para estas grandes operaciones es Java. Los módulos Web son servlets y Java Servers Pages (JSP), y la lógica de negocio se implementa en Enterprise JavaBeans (EJB). El servidor Tomcat de Apache es un ejemplo de contenedor de código abierto que incluye estos módulos.

Los servlets son programas Java que se ejecutan en el servidor. Las JSP son una forma de crear páginas HTML insertando la lógica del servidor dentro de una página que contiene tanto tags HTML como elementos de programación. Los desarrolladores que crean HTML y los programadores en Java pueden trabajar codo con codo referenciando el código de los demás dentro de suyo propio. Los JavaBean son clases independientes, componentes de la arquitectura Java2 de Sun Microsystems. EJB es un intento de construir unidades más complejas, si bien no han cuajado en las arquitecturas web actuales.

Servidor FTP.

El término servidor FTP puede significar dos cosas:

1.   un ordenador que sirve cualquier tipo de fichero, a través del Protocolo de Transferencia de Ficheros a clientes FTP o a navegadores web que lo soporten.

2.   un programa que implementa el protocolo FTP y trabaja como demonio sirviendo ficheros.

Es posible conectar con estos servidores FTP mediante clientes FTP o con algún navegador web que lo soporte.

Algunos servicios permiten "anonymous login", esto significa que cualquier persona con acceso a Internet puede acceder a ellos ingresando como nombre de usuario "anonymous".

Ingresando a un server como anonymous, cuando se le pregunta su password debe ingresar su dirección de e-mail (ej.: [email protected]).

Muchos de los nombres de los servers de FTP comienzan con la palabra ftp. Este es un camino fácil para diferenciar los servers FTP de otra clase de sitios. Tenga en cuenta que no todos los nombres de los servidores de FTP comienzan con esa palabra, y que ni siquiera todos los servidores de FTP tienen un nombre, algunos simplemente utilizan una dirección IP (por ejemplo 174.175.176.177).

Si Usted va a bajar un archivo que no es solo texto debe usar el comando "binary", para asegurarse que el archivo va a ser enviado en el formato correcto.

Peer-to-peer.

 (Redirigido desde P2P)

En general, una red informática entre iguales (en inglés peer-to-peer y más conocida como P2P) se refiere a una red que no tiene clientes y servidores fijos, sino una serie de nodos que se comportan a la vez como clientes y como servidores de los demás nodos de la red. Este modelo de red contrasta con el modelo cliente-servidor. Cualquier nodo puede iniciar o completar una transacción compatible. Los nodos pueden diferir en configuración local, velocidad de proceso, ancho de banda de su conexión a la red y capacidad de almacenamiento.

Debido a que la mayoría de los ordenadores domésticos no tienen una IP fija, sino que le es asignada por el proveedor (ISP) en el momento de conectarse a Internet, no pueden conectarse entre sí porque no saben las direcciones que han de usar de antemano. La solución habitual es realizar una conexión a un servidor (o servidores) con dirección conocida (normalmente IP fija), que se encarga de mantener la relación de direcciones IP de los clientes de la red, de los demás servidores y habitualmente información adicional, como un índice de la información de que disponen los clientes. Tras esto, los clientes ya tienen información sobre el resto de la red, y pueden intercambiar información entre sí, ya sin intervención de los servidores.

Controversia legal.

Buena parte de los archivos compartidos en estas redes son ficheros de música (mp3) y vídeo (DivX). Esto ha llevado a muchos observadores, entre ellos la mayor parte de las empresas discográficas y distribuidoras y algunos defensores del sistema P2P, a concluir que estas redes suponen una gran amenaza a los modelos empresariales ya establecidos.

Debe tenerse en cuenta sin embargo que también se intercambia gran cantidad de contenidos no sujetos a derechos de autor, así como obras cuyos autores no han prohibido dichos intercambios (por ejemplo, distribuciones Linux sujetas a la licencia GPL). Además, debe tenerse en cuenta que existen aplicaciones específicas de redes P2P directamente orientadas al intercambio de este tipo de contenidos y obras, como por ejemplo Skype (VoIP) o Hello, de Picasa (álbumes de fotos personales).

Debido a la ola de demandas en 2005, muchos desarrolladores de estas redes están pensando en nuevos métodos que permitan al usuario permanecer en anonimato a través de la creación de un P2P anónimo.

Problemas con la traducción.

Se suele traducir Peer-To-Peer al español como entre pares. Sin embargo, y según el diccionario[1], peer significa en inglés "par, igual". La traducción correcta, pues, es entre iguales o de igual a igual. Aunque la alternativa entre pares también sea correcta, se prefiere la anterior para evitar equívocos, reforzando la idea de que todos los nodos de una red P2P son iguales (no se distinguen servidores de clientes) y evitando el equívoco que supondría pensar que siempre se realizan comunicaciones entre parejas de nodos.

Artículos relacionados.

·      Historia de las aplicaciones P2P

·      P2M

·      Derecho de copia privada

·      Gestor de descargas

·      Darknet

·      Entrevista a David Bravo, en Wikinoticias

Programas P2P.

Edonkey, Emule, Kazaa, Gnutella, BitTorrent, Freenet, Entropy, GNUnet...

Subportátil.

Un subportátil es un término ambiguo para denominar a un tipo de ordenador portátil que es más pequeño que un portátil, generalmente de un tamaño menor a la hoja de papel A4. Podría ser un portátil común o algo más parecido a una auxiliar personal digital.

Superordenador.

Supercomputadoras son computadoras con capacidades computacionales muy superiores a las comumente disponibles en la época en que fue construída.

Hoy en día el diseño de Supercomputadoras se sustenta en 3 importantes tecnologías:

·      La de Registros Vectoriales, creada por Seymour Cray, considerado el padre de la Supercomputación, quien inventó y patentó diversas tecnologías que condujeron a la creación de máquinas de computación ultra-rápidas. Esta tecnología permite la ejecución de inúmeras operaciones artitméticas en paralelo.

·      El sistema conocido como M.P.P. por las siglas de Massively Parallel Processors o Procesadores Masivamente Paralelos, que consiste en la utilización de cientos y a veces miles de microprocesadores estrechamente coordinados.

·      Clusters de ordenadores de uso general y relativo bajo costo, interconectados por redes locales de baja latencia y el gran ancho de banda.

Recientemente, con la popularización de la Internet, han surgido proyectos de computación distribuída, en donde softwares especiales aprovechan el tiempo ocioso de miles de ordenadores personales para realizar grandes tareas por un bajo costo.

Por su alto costo, los superordenadores tienen su uso limitado a organismos gubermamentales, militares y grandes centros de investigación, en donde tienen aplicaciones científicas, como en la simulación de procesos naturales (previsión del tiempo, análisis de cambios climáticos, entre otros procesos), modelaje molecular, simulaciones físicas como túneles de viento, criptoanálisis, etc. Pero probablemente el mayor uso de este tipo de tecnología es en el desarrollo de armas de destrucción masiva, por el gobierno estadounidenses y en la criptoanálisis, por la Agencia de Seguridad Nacional (NSA) del mismo país.

Este tipo de máquinas generalmente tiene su arquitectura proyectada y optimizada enteramente con la aplicación final en mente.

Earth Simulator.

Literalmente, Simulador de la Tierra. Superordenador desarrollado por las agencias japonesas NASDA, JAERI y JAMSTEC y en operación desde finales del año 2001, para aplicaciones de carácter científico siendo utilizado principalmente en simulaciones climáticas y de convección en el interior terrestre.

Hasta finales del año 2003, ostentó el título de superordenador más rápido del mundo, con una capacitad computacional de más de 35 Teraflops.

·      5120 CPUs especiales de 500 MHz fabricados por NEC Corporation.

·      640 nodos, con 8 procesadores cada uno.

·      8 GFLOPS por CPU (41 TFLOPS total).

·      2 GB (4 modulos de 512 MB FPLRAM) por CPU (10 TB total).

·      memoria compartida en cada nodo.

·      switch crossbar 640 × 640 entre los nodos.

·      anchura de banda de 16 GB/s entre los nodos.

·      consumo de energía de 20 kVA por nodo.

·      sistema operativo Super-UX, basado en Unix.

Beowulf.

Primera página del poema Beowulf.

Beowulf es un poema épico heróico tradicional en inglés antiguo escrito en verso aliterativo. Con 3182 versos, contiene mucho más material que cualquier obra similar en su mismo idioma y representa alrededor del 10% del corpus existente del verso anglosajón. El poema no tiene título en el manuscrito, pero se le ha llamado Beowulf desde principios del siglo XIX.

Su importancia es homologable a la del Cantar de mío Cid o La Chanson de Roland/Cantar de Roldán. El poema se estima que se redactó en la primera mitad del siglo VIII aunque este tema es objeto de debate. La acción que narra se situa en los siglos V-VI.

Tiene dos grandes partes. La primera sucede durante la juventud de Beowulf, y narra como acude en ayuda de los daneses, que sufrían los ataques de un gigante (Gréndel), y tras matar a este se enfrenta a su madre. En la segunda parte Beowulf ya es el rey de los gautas y pelea hasta la muerte con un dragón.