Hardware o soporte físico.

Se denomina hardware o soporte físico al conjunto de elementos materiales que componen un ordenador. En dicho conjunto se incluyen los dispositivos electrónicos y electromecánicos, circuitos, cables, tarjetas, armarios o cajas, periféricos de todo tipo y otros elementos físicos.

El hardware se refiere a todos los componentes físicos (que se pueden tocar) de la computadora: discos, unidades de disco, monitor, teclado, ratón (mouse), impresora, placas, chips y demás periféricos. En cambio, el software es intocable, existe como ideas, conceptos, símbolos, pero no tiene sustancia. Una buena metáfora sería un libro: las páginas y la tinta son el hardware, mientras que las palabras, oraciones, párrafos y el significado del texto son el software. Una computadora sin software sería tan inútil como un libro con páginas en blanco.

Tipos de hardware.

Periféricos de entrada:

·      Son los que permiten que el usuario aporte información exterior.

·      Estos son: Teclado, Ratón, Escáner, SAI (Sistema de Alimentación Ininterrumpida), Micrófono, etc.

Periféricos de salida:

·      Son los que muestran al usuario el resultado de las operaciones realizadas por el PC.

·      En este grupo se encuentran: Monitor, Impresora.

Periféricos de entrada/salida:

Son los dispositivos que pueden aportar simultáneamente información exterior al PC y al usuario.

Aquí se encuentran: Módem (Modulador/Demodulador), Disquete, ZIP, CD-ROM, DVD-ROM, HD-DVD, Blu-Ray Disc, Memoria USB (Pendrives, Flash Disks, etc), Disco duro externo, Memorias de pequeño tamaño (SD, Compact Flash I & II, Smart Card, MMC, etc)

Hardware Generalidades Computadora: aparato electrónico capaz de interpretar y ejecutar comandos programados para operaciones de entrada, salida, cálculo y lógica. Las computadoras:

1.   Reciben entradas. La entrada son los datos que se capturan en un sistema de computación para su procesamiento.

2.   Producen salidas. La salida es la presentación de los resultados del procesamiento.

3.   Procesan información.

4.   Almacenan información.

Todo sistema de cómputo tiene componentes de hardware dedicados a estas funciones:

1.   Dispositivos de entrada.

2.   Dispositivos de salida.

3.   Unidad central de procesamiento. Es la computadora real, la "inteligencia" de un sistema de computación.

4.   Memoria y dispositivos de almacenamiento.

Cada dispositivo de entrada es sólo otra fuente de señales eléctricas; cada dispositivo de salida no es más que otro lugar al cual enviar señales; cada dispositivo de almacenamiento es lo uno o lo otro, dependiendo de lo que requiera el programa; no importa cuáles sean los dispositivos de entrada y salida si son compatibles. Los elementos fundamentales que justifican el uso de las computadoras, radican en que las computadoras son:

·      Útiles.

·      Baratas: tanto con respecto a sí mismas como con respecto al costo de la mano de obra.

·      Fáciles de utilizar.

Tecnologías y avances:

·      1ª generación: Con tubos de vacío, tubos de vidrio del tamaño de una bombilla que albergaban circuitos eléctricos. Estas máquinas eran muy grandes caras y de difícil operación.

·      2ª generación: con transistores. Máquinas más pequeñas, confiables y económicas.

·      3ª generación: Con la tecnología que permitió empaquetar cientos de transistores en un circuito integrado de un chip de silicio.

·      4ª generación: con el microprocesador, que es un computador completo empaquetado en un solo chip de silicio.

Historia del hardware de cómputo.

Es posible que, a causa de ello, haya lagunas de contenido o deficiencias de formato. Por favor, antes de realizar correcciones mayores o reescrituras, contacta con ellos en su página de usuario o la página de discusión del artículo para poder coordinar la redacción.

El hardware de computo ha sido un componente esencial del proceso de cálculo y almacenamiento de datos [data storage] desde que se convirtió en algo necesario para que los datos fuesen procesados y compartidos.

Primeros dispositivos para facilitar los cálculos.

Ábaco.

La humanidad ha usado dispositivos para ayudarse en la computación durante milenios. Un ejemplo es el ábaco, un invento muy utilizado en China para las operaciones matemáticas, el cual puede representar adición y sustracción.

Primeras calculadoras mecánicas.

Engranajes.

En 1623 Wilhelm Schickard construyó la primera calculadora mecánica y así se volvió el padre de la era del cómputo. Como su máquina uso técnicas tales como dientes y engranajes, y dichos elementos fueron desarrollados para los relojes; también fue llamada un "reloj de calculo". Esta fue puesta en uso práctico por su amigo Johannes Kepler, quien revolucionó la astronomía.

Máquinas por Blaise Pascal (la Pascalina, 1640) y Gottfried Wilhelm von Leibniz (1670) Leibniz también describió el sistema binario, un ingrediente central para todas las computadoras modernas. Sin embargo, hacia los años 1940s, muchos diseños subsecuentes (incluyendo la máquina de Babbage de los años 1800s e incluso la ENIAC de 1945) fueron basados en el duro de implementar sistema decimal.

Regla de cálculo

John Napier notó que la multiplicación y división de números puede ser realizados por adición y sustracción, respectivamente, de logaritmos de esos números. Desde que los números reales pueden ser representados como distancias o intervalos en una línea, el traslado simple u operación deslizante de dos longitudes de madera, adecuadamente inscritos con intervalos lineales o logarítmicos, se uso como la regla de cálculo por generaciones de ingenieros y otros matemáticos profesionales, hasta la invención de la calculadora de bolsillo. Así los ingenieros en el programa Apollo para mandar un hombre a la luna hacen sus cálculos en las reglas de cálculo.

Lectores de tarjetas perforadas 1801-1940 En 1801, Joseph-Marie Jacquard desarrolló un telar en el cual el patrón a tejerse fue controlado por tarjetas perforadas. La serie de tarjetas podría cambiarse sin tener que cambiar el diseño mecánico del telar. Este fue un punto en el hito de la programabilidad. Herman Hollerith

En 1890 la Oficina de Censos de los Estados Unidos utilizó tarjetas perforadas [punched cards] y máquinas de ordenamiento diseñadas por Herman Hollerith para manejar el flujo de datos del censo decenal por mandato la constitución. La compañía de Hollerith eventualmente se convirtió en el núcleo de IBM.

En el vigésimo siglo, la electricidad fue usada primero por máquinas de cálculo y ordenamiento. Por 1940, la Oficina de Cómputo Astronómico Thomas J. Watson de W.J. Eckert de la Universidad de Columbia tenia publicado Los Métodos de Tarjetas Perforadas en la Computación Científica, el cual fue suficientemente avanzado para resolver ecuaciones diferenciales, realizar multiplicaciones y divisiones usando representaciones de punto flotante, todo en tarjetas perforadas y tarjetas de enchufe similares a aquellas usadas por operadores de teléfono. Los cálculos astronómicos representaron el estado del arte en computación.

Primeros diseños en máquinas programables 1835-1900s.

La característica que define de una "computadora universal" es programabilidad, que le permite a la computadora emular cualquier otra maquina calculadora por medio de cambiar una secuencia de instrucciones almacenadas.

En 1835 Charles Babbage describió su máquina analítica. Este fue el plan de una computadora programable de propósito general, empleando tarjetas perforadas para entrada y una máquina de vapor como fuente de energía. Mientras los planes eran probablemente correctos, las disputas con el artesano quien construyo las partes, y el fin de los fondos por parte del gobierno, la hicieron imposible de construir. Ada Lovelace, la hija de Lord Byron, tradujo y agregó notas para el "Boceto de la Máquina Analítica" por L.F. Menabrea. Ella se volvió estrechamente asociada con Babbage. Algunos la nombran como la primera programadora de la historia, sin embargo este nombramiento y el valor de sus otras contribuciones son disputadas por muchos.

Una reconstrucción de la Máquina Diferencial No. 2 ha estado operacional desde 1991 en el Museo de Ciencia de Londres; esta trabaja como Babbage la diseñó y muestra que Babbage estaba acertadoo en su teoría y capaz para fabricar partes de la precisión requerida. Babbage falló a causa de que sus diseños fueron demasiados ambiciosos, el tuvo problemas con las relaciones de labor, y fue políticamente inepto.

Más tipos limitados de computación mecánica 1800s-1900s.

Por los 1900s las primeras calculadoras mecánicas, cajas registradoras, máquinas de contabilidad, entre otras se rediseñaron para utilizar motores electrónicos, con un engranaje de posición como la representación para el estado de una variable. Las personas eran computadoras, como un titulo de trabajo, y usaban calculadoras para evaluar expresiones.

Durante el proyecto Manhattan, futuro Nobel Richard Feynman laureado fue el supervisor de las computadoras humanas, muchas de las mujeres dedicadas a las matemáticas, que entendieron las ecuaciones matemáticas que estaban resolviéndose para el esfuerzo de guerra. Incluso el renombrado Stanislaw Marcin Ulman fue presionado por el servicio para traducir las matemáticas en las aproximaciones computables para la bomba de hidrógeno, después de la guerra.

Durante la Segunda Guerra Mundial, los planes de Curt Herzstark para una calculadora de bolsillo mecánica, literalmente le salvo la vida: Cliff Stoll, Scientific American 290, no. 1, pp. 92-99. (January 2004).

Computadoras Análogas, pre-1940.

El diagrama de Smith, un tipo de nomograma

Antes de la Segunda Guerra Mundial, las computadoras análogas mecánicas y eléctricas fueron consideradas el "estado del arte", y muchos pensaron que eran el futuro de la computación. Las computadoras analógicas usaron las cantidades variantes continuas de cantidades físicas, tal como voltajes o corrientes, o velocidades rotatorias de árboles, para representar las cantidades procesándose. Un ejemplo ingenioso de tal maquina fue el integrador de agua construido en 1936.

A diferencia de las computadoras digitales modernas, las computadoras análogas no eran muy flexibles, y necesitaban ser reconfiguradas (reprogramadas) manualmente para cambiarlas de su trabajo en un problema a otro. Las computadoras análogas tenían una ventaja encima de las primeras computadoras digitales, en que estas podían ser usadas para resolver problemas complejos mientras que los primeros intentos a las computadoras digitales eran bastante limitadas.

Desde que los programas de computadoras no eran aun extensamente conceptos populares en esta era (a pesar del trabajo pionero de Babbage), la soluciones eran a menudo codificado en duro por formas tal como gráficos y nomogramas, que podían representar las analogías de soluciones a problemas tales como la distribución de presiones y temperaturas en un sistema de calorífico, por ejemplo. Pero cuando las computadoras digitales se han vuelto más rápidas y han usado memoria más grande (RAM o almacenamiento interno), estas tienen casi computadoras analogías desplazadas enteramente, y programación, o codificación se ha levantado como otra profesión humana.

Primera generación de computadoras digitales modernas 1940s.

El tubo de vacío

La era de la computación moderna empezó con una ráfaga de desarrollo antes y durante la Segunda Guerra Mundial, como circuitos electrónicos, relés, condensadores y tubos de vacío que reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron cálculos analógicos.

Las computadoras diseñaron y construyeron entonces tienen a veces ser llamados "primera generación" de computadoras. La primera generación de computadoras eran usualmente construidas por la mano usando circuitos que contenían relés y tubos de vacío, y a menudo usaron tarjetas perforadas (punched cards) o cinta de papel perforado (punched paper tape) para entrada [input] y como el medio de almacenamiento principal (no volátil). Temporal, o trabajando almacenamiento, fue proporcionado por las líneas de retraso acústicas (que usa la propagación de tiempo de sonido en una medio tal como alambre para almacenar datos) o por los tubos de William (que usan la habilidad de un tubo de televisión para guardar y recuperar datos).

A través de 1954, la memoria de núcleo magnético estaba desplazando rápido la mayoría de otras formas de almacenamiento temporal, y domino el campo a través de los mediados de los 1970s.

En 1936 Konrad Zuse empezó la construcción de la primera serie Z, calculadoras que ofrecen memoria (inicialmente limitada) y programabilidad. Las Zuses puramente mecánicas, pero ya binario Z1, terminada en 1938, nunca trabajo fiablemente debido a los problemas con la precisión de partes.

En 1937, Claude Shannon produjo su tesis de master en MIT que implemento álgebra Booleana usando relees electrónicos e interruptores por la primera vez en la historia. Titulado Un Análisis Simbólico de Circuitos de Relees e Interruptores [A Symbolic Analysis of Relay and Switching Circuits], la tesis de Shannon esencialmente fundo el diseño de circuitos digitales prácticos.

La máquina subsecuente de Zuse, la Z3, fue terminada en 1941. Fue basada en relés de teléfono y trabajó satisfactoriamente. Así la Z3 se volvió la primera computadora funcional controlada mediante programas. De muchas maneras era bastante similar a las máquinas modernas, abriendo numerosos avances, tales como el uso de la aritmética binaria y números de punto flotante. Reemplazando del duro de implementar sistema decimal (utilizado en el primer diseño de Charles Babbage) por el sistema binario mas simple significo que las maquinas de Zuse eran mas fáciles de construir y potencialmente mas fiables, dando las tecnologías disponibles en este tiempo. Esto es a veces visto como la principal razón por que Zuse tuvo éxito donde Babbage fallo, sin embargo, la mayoría de las maquinas de propósito general de ahora continúan teniendo instrucciones de ajustes decimales, la aritmética decimal es aun esencial para aplicaciones comerciales y financieras, y el hardware de punto flotante decimal esta siendo agregado para algunas nuevas maquinas (el sistema binario continua siendo usado para direccionamiento en casi todas las máquinas).

Se alimentaron programas en la Z3 en películas perforadas [punched films]. Los saltos condicionales eran extrañados, pero desde los 1990s puristas teóricos tenían señalados que la Z3 era aun una computadora universal (ignorando sus limitaciones de tamaño de almacenamiento físicas). En dos patentes de 1937, Konrad Zuse también anticipo que las instrucciones de maquina podían ser almacenadas en el mismo tipo de almacenamiento utilizado por los datos - la llave de la visión de que se volvió conocida como la arquitectura de von Neumann y fue la primera implementada en el diseño Británico EDSAC (1949) mas tarde. Zuse también diseño el primer lenguaje de programación de alto nivel "Plankalkül" en 1945, aunque nunca se publico formalmente hasta 1971, y fue implementado la primera vez en el 2000 por la Universidad de Berlín, cinco años después de la muerte de Zuse. Zuse sufrió retrocesos dramáticos y perdió muchos años durante la Segunda Guerra Mundial cuando los bombarderos Británicos o estadounidenses efectivamente destruyeron sus primeras maquinas. Al parecer su trabajo permanecía largamente desconocido para ingenieros en el Reino Unido o EEUU hasta mucho mas tarde, aunque por lo menos IBM era conciente de esto como esta financio su compañía a comienzo de la post-guerra en 1946 en retorno para una opción de patentes de Zuse.

En 1940, la Calculadora de Numero Complejo, una calculadora para aritmética compleja basada en relees, fue completada. Fue la primera máquina que siempre se uso remotamente encima de una línea telefónica. En 1938, John Vincent Atanasoff y Clifford E. Berry de la Universidad del Estado de Iowa desarrollaron la Atanasoff Berry Computer (ABC) una computadora de propósito especial para resolver sistemas de ecuaciones lineares, y que emplearon capacitores arreglados en un tambor rotatorio mecánicamente, para memoria. La maquina ABC no fue programable, aunque era una computadora en el sentido moderno en varios otros respetos.

Durante la Segunda Guerra Mundial, los Británicos hicieron esfuerzos significantes en Bletchley Park para romper comunicaciones militares Alemanas. El sistema cypher Alemán principal (el Enigma en varias variantes), fue atacado con la ayuda con las finalidad de construir bombas (diseñadas después de las bombas electro mecánicas programables) que ayudaron a encontrar posibles llaves Enigmas después de otras técnicas tenían estrechadas bajo las posibilidades. Los Alemanes también desarrollaron unas series de sistemas cypher (llamadas Fish cyphers por los británicos y Lorenz cypers por los Alemanes) que era bastante diferente que el Enigma. Como la parte de un ataque contra estos, el profesor Max Newman y sus colegas (incluyendo Alan Turing) ayudo específicamente el Colossus. El Mk I Colossus fue construidas en un orden muy corto por Tommy Flowers en la Post Office Research Station en Dollis Hill en Londres y entonces enviada a Bletchley Park.

El Colossus fue el primer dispositivo de cómputo totalmente electrónico. El Colossus uso solo tubos de vacío y no tenia relees. Tenia entrada para cinta de papel [paper-tape] y fue capaz de bifurcación condicional. Nueve Mk II Colossi se construyeron (la Mk I se convirtió a una Mk II haciendo diez maquinas en total). Los detalles de su existencia, diseño, y uso se mantuvieron en buen secreto en los 1970s. Se dice que Winston Churchill ha emitido un orden personalmente para su destrucción en pedazos no más grandes que la mano de un hombre. Debido a este secreto el Colossi no se ha incluido en muchas historias de la computación Una copia reconstruida de uno de las maquinas Colossus esta ahora en el despliegue en el Bletchley Park.

El trabajo de pre-guerra de Turing era una influencia mayor en la ciencia de la computación teórica, y después de la guerra, el siguió al diseño, construyo y programo algunas de los primeras computadoras en el Laboratorio de Físico Nacional y en la Universidad de Manchester. Su papel de 1936 incluyo una reformulación de los resultados de Kurt Gödel en 1931 como bien una descripción de que es ahora llamada la maquina de Turing, un dispositivo puramente teórico para formalizar la noción de la ejecución de algoritmos, reemplaza lenguaje universal mas embarazoso de Gödel basado en aritmética. Las computadoras modernas son Turing-integrada (capacidad de ejecución de algoritmo equivalente a una maquina Turing universal), salvo su memoria finita. Este limitado tipo de Turing-integrados es a veces visto como una capacidad umbral separando las computadoras de propósito general de sus predesores de propósito especial.

George Stibitz y sus colegas en Bell Labs de la ciudad de Nueva York producieron algunas computadoras basados en relee a finales de los 30s y a principios de los 40s, pero se preocuparon mas con los problemas de control del sistema de teléfono, no en computación. Sus esfuerzos fueron un claro antecedente para atra maquina Americana electromecánica, sin embargo.

La Harvard Mark I (oficialmente llamada Automatic Sequence Controlled Calculator) fue una computadora electro-mecánica de propósito general construida con el financiamiento de IBM y con asistencia de algunos del personal de IBM bajo la dirección del matemático Howard Aiken de Harvard. Su diseño fue influenciado por la Máquina Analítica. Fue una maquina decimal que utilizo ruedas de almacenamiento e interruptores rotatorios a demás de los relees electromagnéticos. Fue programable mediante cinta de papel perforado, y contenía varias calculadoras trabajando en paralelo. Mas adelante los modelos contenían varios lectores de cintas de papel y la maquina podía cambiar entre lectores basados en una condición. No obstante, esto no hace mucho la máquina Turing-integrada. El desarrollo empezó en 1939 en el laboratorio de Endicott de IBM; la Mark I se movió a la Universidad de Harvard para comenzar a funcionar en mayo de 1944.

ENIAC.

La construcción estadounidense ENIAC (Electronic Numerical Integrator and Computer), a menudo llamada la primera computadora electrónica de propósito general, públicamente valido el uso de electrónicos para computación a larga escala. Esto fue crucial para el desarrollo de la computación moderna, inicialmente debido a la ventaja de velocidad enorme, pero últimamente debido al potencial para la miniaturización. Construida bajo la dirección de John Mauchly y J. Presper Eckert, era mil veces más rápida que sus contemporáneos. En desarrollo y construcción de la ENIAC duro de 1941 para su operación completa en los finales de 1945. Cuando su diseño fue propuesto, muchos investigadores creyeron que las miles de válvulas delicadas (tubos de vació) se quemarían a menudo basta que la ENIAC estaría muy frecuentemente bajo las reparaciones como sean inútiles. Era, sin embargo, capaz de hacer arriba de 100,000 simples cálculos en un segundo durante horas en un tiempo entre los fallos de las válvulas. Para programar la ENIAC, sin embargo, significaba re-alambrarlo - algunos dice, esto ni siquiera califica como programación, por otra parte cualquier tipo de reconstrucción alguna computadora limitada podría verse como programación. Varios años después, sin embargo, se puso también posible ejecutar programas almacenados puestos en la memoria de la tabla de función. A todas las maquinas a esta fecha les falto todavía que se conociera como la arquitectura de von Neumann: sus programas no se guardaron en el mismo "espacio" de memoria como los datos y así que los programas no pudieron ser manipulados como datos. Las primeras maquinas von Neumann fuero la Manchester "Baby" o Small-Scale Experimental Machine, construida en la Universidad de Manchester en 1948; esta fue seguida en 1949 por la computadora Manchester Mark I que funciono como un sistema completo utilizando el tubo de William para memoria, y también introdujo registros de índices. El otro contendiente para el titulo "primera computadora de programa almacenado digital" fue EDSAC, diseñada y construida en la Universidad de Cambridge. Operacional menos de un año después de la Manchester "Baby", era capaz de tomar problemas reales. La EDSAC fue realmente inspirada por los planes para la EDVAC, el sucesor de la ENIAC; estos planes ya estaban en lugar por el tiempo la ENIAC fue exitosamente operacional. A diferencia la ENIAC, que utilizo procesamiento paralelo, la EDVAC uso una sola unidad de procesamiento. Este diseño era mas simple y fue el primero en ser implementado en cada onda teniendo éxito de miniaturización, e incremento la fiabilidad. Algunos ven la Manchester Mark I / EDSAC / EDVAC como las "Evas" de que casi todas las computadoras actuales derivan su arquitectura.

La primera computadora programable en la Europa continental fue creada por un equipo de científicos bajo la dirección de Segrey Alekseevich Lebedev del Institute of Electrotechnology en Kiev, Unión Soviética (ahora Ucrania). La computadora MESM [Small Electronic Calculating Machine (МЭСМ)] se puso operacional en 1950. Tenía aproximadamente 6,000 tubos de vacío y consumió 25kW de poder. Podía realizar aproximadamente 3,000 operaciones por segundo.

La maquina de la Universidad de Manchester se volvió el prototipo para la Ferranti Mark I. La primera maquina Ferranti Mark I fue entregada a la Universidad en Febrero de 1951 y por lo menos nueve otras se vendieron entre 1951 y 1957.

UNIVAC I.

En junio de 1951, la UNIVAC I [Universal Automática Computer] se entrego a la Oficina de Censo Estadounidense. Aunque fabricada por la Remington Rand, la maquina estaba frecuentemente errónea llamada la "IBM UNIVAC". La Remington Rand eventualmente vendió 46 maquinas a mas de $1 millón cada una. La UNIVAC fue la primera computadora "producida en masa"; todas las predecesoras habían sido "una fuera de" las unidades. Uso 5,200 tubos de vacío y consumió 125 kW de poder. Utilizo una línea de retrazo de mercurio capaz de almacenar 1,000 palabras de 11 dígitos decimales mas la señal (72-bit de palabras) para memoria. En contraste con las primeras maquinas no uso un sistema de tarjetas perforadas pero una entrada de cinta de metal.

En noviembre de 1951, la compañía J. Lyons empezó en funcionamiento semanal de un trabajo de valoraciones de panadería en el LEO [Lyons Electronic Office]. Esta fue la primera aplicación comercial en ir viva en una computadora de programa almacenado.

También en 1921 (julio), la Remington Rand demostró el primer prototipo de los 409, una calculadora de tarjeta perforada de tarjeta enchufada programada. Esta fue la primera instalada, en la Revenue Service facility en Baltimore, en 1952. La 409 evoluciono para volverse la computadora Univac 60 y 120 en 1953.ALUMNO DE ITIS DE LA UNEX.

Segunda Generación 1947-1960.

El siguiente paso mayor en la historia de la computación fue la invención del transistor en 1947. Esto reemplazo las válvulas frágiles y hambrientas de poder como una mucho más pequeña y más fiable componente. Las computadoras transistorizadas normalmente son referidas como la "Segunda Generación" y dominaron a finales de 1950s y a principios de 1960s.

A pesar de usar transistores [transistors] y circuitos impresos [printed circuits] estas computadoras todavía eran grandes y principalmente usadas por universidades, gobiernos, y grandes corporaciones. Por ejemplo el tubo de vació baso la IBM 650 de 1954 peso mas de 900 kg, el anexo de fuente de poder peso alrededor de 1350 kg y ambas se sostuvieron en armarios separados bruscamente a 1.5 metros por 0.9 metros por 1.8 metros. Costo $500,000 o podía arrendarse para $3,500 un mes. Sin embargo la memoria de tambor era originalmente de solo 2000 palabras de 10 dígitos, una limitación que forzó la programación arcana, permitiendo computación sensible. Este tipo de limitación del hardware era dominar programando por décadas después, hasta la evolución de un modelo de la programación que era más simpático al desarrollo de software, algunas décadas después.

Maurice Wilkes.

En 1955, Maurice Wilkes invento la microprogramación, ahora casi universalmente uso en la implementación de diseños de CPUs. El juego de instrucciones de la CPU es definida por un tipo de programación.

En 1956, IBM vendió su primer sistema de disco magnético, RAMAC [Random Access Method of Accounting and Control]. Uso 50 discos de metal de 24", con 100 pistas por lado. Podía guardar 5 megabytes de datos y con un costo de $10,000 por megabyte.

El primer lenguaje de programación [programming language] de propósito general de alto-nivel [high-level], FORTRAN, también estaba desarrollándose en IBM alrededor de este tiempo. (El diseño de lenguaje de alto-nivel Plankalkül de 1945 de Konrad Zuse no se implemento en ese momento).

En 1959, IBM envió la mainframe IBM 1401 basado en transistor, que utilizo tarjetas perforadas. Demostró una computadora de propósito general y 12,000 fueron enviadas, haciéndola la maquina mas exitosa en la historia de la computación. Uso una memoria de núcleo magnético de 4000 caracteres (después extendió a 16,000 caracteres). Muchos aspectos de sus diseños eran basados en el deseo de reemplazar las maquina de tarjetas perforadas que eran en extenso uso de los 1920s a través de principios de los 70s. En 1960, IBM envió la mainframe IBM 1620 basada en transistor, originalmente con solo una cinta de papel perforado, pero pronto se actualizo a tarjetas perforadas. Probo una computadora científica popular y aproximadamente 2,000 se enviaron. Uso una memoria de núcleo magnético de arriba de los 60,000 dígitos decimales.

También en 1960, la DEC lanzo el PDP-1 su primera maquina pensada para el uso por personal técnico en laboratorios y para la investigación.

En 1964, IBM anuncio las series S/360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidades, capacidad y precio. También abrió el uso comercial de microprogramas, y un juego de instrucciones extendidas para procesar muchos tipos de datos, no solo aritmética. Además, se unifico la línea de producto de IBM, que previamente a este tiempo tenia incluidos ambos, una línea de producto "comercial" y una línea "científica" separada. El software proporcionado con el System/350 también incluyo mayores avances, incluyendo multi-programacion disponible comercialmente, nuevos lenguajes de programación, y independencia de programas de dispositivos de entrada/salida. Más de 14,000 sistemas System/360 fueron enviados por 1968.

También en 1964, DEC lanzo la maquina mas pequeña PDP-8 pensada para el uso por personal técnico en laboratorios y para investigación.

Tercera generación y mas allá, post-1958.

Circuito Integrado.

La explosión en el uso de computadoras empezó con la "tercera generación" de computadoras. Estos confiaron en la invención independiente de Jack St. Claire Kilby y Robert Noyce del circuito integrado o microchip, que después llevo a la invención de Ted Hoff del microprocesador, en Intel.

La historia del hardware en países comunistas fue un poco diferente.

Por los finales de 1950s, los investigadores como George Gamow noto que las largas secuencias de nucleótidos en DNA formaron un código genético, aun otra forma de codificar o programar, este tiempo de expresiones genéticas. Por los 1960s, ellos habían identificado las analogías de la instrucción de paro, por ejemplo.

Sistema digital.

Un Sistema digital es cualquier dispositivo destinado a la generación, transmisión, procesamiento o almacenamiento de señales digitales.

Para el análisis y la síntesis de sistemas digitales binarios se utiliza como herramienta el álgebra de Boole.

Los sistemas digitales pueden ser de dos tipos:

·      Sistemas digitales combinacionales: Aquellos en los que sus salidas sólo depende del estado de sus entradas en un momento dado. Por lo tanto, no necesita módulos de memoria, ya que las salidas no dependen de los estados previos de las entradas.

·      Sistemas digitales secuenciales: Aquellos en los que sus salidas dependen además del estado de sus entradas en un momento dado, de estados previos. Esta clase de sistemas necesitan elementos de memoria que recojan la información de la 'historia pasada' del sistema.

Para la implementación de los circuitos digitales, se utilizan puertas lógicas (AND, OR y NOT), construidas generalmente a partir de transistores. Estas puertas siguen el comportamiento de algunas funciones del booleanas.

Antónimo.

·      Sistema analógico.

·      Circuito integrado.

 

Detalle de un circuito integrado.

Un circuito integrado es una pastilla o chip en la que se encuentran todos o casi todos los componentes electrónicos necesarios para realizar alguna función. Estos componentes son transistores en su mayoría, aunque también contienen resistencias, diodos, condensadores, etc.

El primer circuito integrado o chip fue desarrollado en 1958 por el ingeniero Jack Kilby, justo meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo que integraba seis transistores en una misma base semiconductora.

En el año 2000 Kilby fue galardonado con el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología de la información.

Atendiendo al nivel de integración - número de componentes - los circuitos integrados se clasifican en:

·      SSI (Small Scale Integration) pequeño nivel: inferior a 12

·      MSI (Medium Scale Integration) medio: 12 a 99

·      LSI (Large Scale Integration) grande : 100 a 9999

·      VLSI (Very Large Scale Integration) muy grande : 10 000 a 99 999

·      ULSI (Ultra Large Scale Integration) ultra grande : igual o superior a 100 000

En cuanto a las funciones integradas, los circuitos se clasifican en dos grandes grupos:

·      Circuitos integrados analógicos.

Pueden constar desde simples transistores encapsulados juntos, sin unión entre ellos, hasta dispositivos completos como amplificadores, osciladores o incluso receptores de radio completos.

·      Circuitos integrados digitales.

Pueden ser desde simples son puertas lógicas (Y, O, NO) hasta los más complicados como los microprocesadores.

Robótica.

La Robótica es una ciencia o rama de la tecnología, que estudia el diseño y construcción de máquinas capaces de desempeñar tareas realizadas por el ser humano o que requieren del uso de inteligencia. Las ciencias y tecnologías de las que deriva podrían ser: el álgebra, los autómatas programables, las máquinas de estados, la mecánica o la informática.

Historia.

La historia de la robótica ha estado unida a la construcción de "artefactos", muchas veces por obra de genios autodidactas que trataban de materializar el deseo humano de crear seres semejantes a nosotros que nos descargasen del trabajo. El ingeniero español Leonardo Torres Quevedo (que construyó el primer mando a distancia para su torpedo automóvil mediante telegrafía sin hilodrecista automático, el primer transbordador aéreo y otros muchos ingénios) acuñó el término "automática" en relación con la teoría de la automatización de tareas tradicionalmente asociadas a los humanos.

Karel Capek, un escritor checo, acuño en 1921 el término Robot en su obra dramática "Rossum's Universal Robots / R.U.R.", a partir de la palabra checa Robbota, que significa servidumbre o trabajo forzado. El término robótica es acuñado por Isaac Asimov, definiendo a la ciencia que estudia a los robots. Asimov creó también las Tres Leyes de la Robótica. En la ciencia ficción el hombre ha imaginado a los robots visitando nuevos mundos, haciéndose con el poder, o simplemente aliviandonos de las labores caseras.

La Robótica ha alcanzado un nivel de madurez bastante elevado en los últimos tiempos, y cuenta con un correcto aparato teórico. Sin embargo, algunas cosas que para los humanos son muy sencillas, como andar, correr o coger un objeto sin romperlo, requieren una potencia de cálculo para igualarlas que no esta disponible todavía. Sin embargo se espera que el continuo aumento de la potencia de los ordenadores y las investigaciones en inteligencia artificial, visión artificial y otras ciencias paralelas nos permitan acercanos un poco más cada vez a los milagros soñados por los primeros ingenieros y también a los peligros que nos adelanta la ciencia-ficción. A la robótica pertenecen los aparatos diseñados mecánicamente y que mediante un cerebro electrónicamente computarizado, realiza sus funciones.

·      Máquina analítica

La máquina analítica, es el diseño de un computador moderno de uso general realizado por el profesor británico de matemáticas Charles Babbage, que representó un paso importante en la historia de la computación. Fue inicialmente descrita en 1837, aunque Babbage continuó refinando el diseño hasta su muerte en 1871. La máquina no pudo ser construida debido a razones de índole financiera, política y legal. Computadores que fueran lógicamente comparables a la máquina analítica sólo pudieron ser construidos 100 años más tarde.

Algunos piensan que las limitaciones tecnológicas de la época eran un obstáculo que hubiera impedido su construcción; otros piensan que la tecnología de la época alcanzaba para construir la máquina de haberse obtenido financiamiento y apoyo político al proyecto.

Diseño.

El primer intento de Charles Babbage para diseñar de una máquina fue la máquina diferencial, que fue un computador diseñado específicamente para construir tablas de logaritmos y de funciones trigonométricas evaluando polinomios por aproximación. Si bien este proyecto no vio la luz por razones económicas y personales, Babbage comprendió que parte de su trabajo podía ser aprovechado en el diseño de un computador de propósito general, de manera que inició el diseño de la máquina analítica.

La máquina analítica debía funcionar con un motor a vapor y hubiera tenido 30 metros de largo por 10 de ancho. Para la entrada de datos y programas había pensado utilizar tarjeta perforada, que era un mecanismo ya utilizado en la época para dirigir diversos equipos mecánicos. La salida debía producirse por una impresora, un equipo de dibujo y una campana. La máquina debía también perforar tarjetas que podrían ser leídas posteriormente. La máquina analítica trabajaba con una aritmética de punto fijo en base 10, poseía una memoria capaz de almacenar 1.000 números de 50 dígitos cada uno. Una unidad aritmética estaría encargada de realizar las operaciones aritméticas.

El lenguaje de programación que sería utilizado era similar a los actuales lenguajes ensambladores. Era posible realizar lazos y condicionales de manera que el lenguaje propuesto hubiera sido Turing-completo. Se utilizaban tres tipos diferentes de tarjetas perforadas: una para operaciones aritméticas, una para constantes numéricas y otra para operaciones de almacenamiento y recuperación de datos de la memoria, y la transferencia de datos entre la unidad aritmética y la memoria. Se disponía de tres lectores diferentes para los tres tipos de tarjetas.

En 1842, el matemático italiano Luigi Menabrea, quien se había encontrado con Babbage durante un viaje de éste por Italia, escribió una descripción de la máquina en francés. En 1843, esa descripción fue traducida al inglés y anotada de forma extensa por Ada King, Contesa de Lovelace, quien ya se había interesado en la máquina unos años antes. Como reconocimiento a su trabajo, ella ha sido descrita en muchas ocasiones como la primera programadora. El Lenguaje de programación Ada actualmente utilizado lleva su nombre.

Construcción parcial.

En 1878, un comité de la Asociación británica para el avance de la ciencia recomendó no construir la máquina analítica, por lo que Babbage no tuvo acceso a fondos del gobierno.

En 1910, el hijo de Babbage, Henry P. Babbage informó que una parte del dispositivo de cálculo y el equipo de impresión habían sido construidos y utilizados para calcular una lista de múltiplos de Pi (con errores). Esto sólo era una pequeña parte de la máquina analítica que no podía ser programada ni disponía de memoria.

Influencia.

La máquina analítica fue prácticamente olvidada salvo por tres inventores: Percy Ludgate, Leonardo Torres y Quevedo y Vannevar Bush que independientemente propusieron, a principios del siglo XX, diseños de máquinas analíticas basados en la de Babbage.

Los trabajos de George Stibitz de Bell Laboratories en Nueva York justo antes de la Segunda Guerra Mundial y de Howard Aiken en la Universidad de Harvard, durante y justo después de la guerra están estrechamente relacionado con el trabajo de Babbage sobre la máquina analítica. Ambos construyeron computadores electromagnéticos estrechamente relacionados con la máquina analítica, si bien ninguno de estos equipos puede ser considerado como un computador programable moderno. La máquina de Aiken fue financiada por IBM y fue llamada el Harvard Mark I.

De la autobiografía de Babbage:

Tan pronto como exista una Máquina Analítica, será necesario redirigir el futuro curso de la ciencia.