Informática.

La Informática es la ciencia del tratamiento automático de la información a través de un computador (llamado también ordenador o computadora).

Entre las tareas más populares que ha facilitado esta tecnología se encuentran: elaborar documentos, enviar y recibir correo electrónico, dibujar, crear efectos visuales y sonoros, maquetar folletos y libros, manejar la información contable en una empresa, reproducir música, controlar procesos industriales y jugar.

Informática es un vocablo inspirado en el francés informatique, formado a su vez por la conjunción de las palabras information y automatique, para dar idea de la automatización de la información que se logra con los sistemas computacionales.

La informática es un amplio campo que incluye los fundamentos teóricos, el diseño, la programación y el uso de las computadoras (ordenadores).

Teoría de la computación.

La teoría de la computación es una ciencia, en particular una rama de las matemáticas y de la computación que centra su interés en el estudio y definición formal de los cómputos.

Se le llama cómputo a la obtención de una solución o resultado (generalmente en el sentido matemático/aritmético del término), a partir de ciertos datos o entradas utilizando para ello un proceso o algoritmo. Desde épocas antiguas, los cómputos han existido y se han efectuado de manera mental o asistida por rudimentos como cuentas, lápiz y papel, o tablas.

Los antecedentes de la computación mecánica, pueden trazarse hasta épocas antiguas, con el desarrollo de artefactos para asistir el proceso de los cálculos matemáticos mentales, por ejemplo el ábaco, la regla de cálculo o el quipu.

Aunque quizás sea más propicia como ejemplo precursor, la célebre calculadora griega de Antikythera, utilizada según los expertos para asistir en cálculos astronómicos, y considerada por muchos como la primera computadora. Otro ejemplo precursor son las máquinas sumadoras de Blas Pascal. Aparatos que demuestran una notable pericia de sus creadores en el conocimiento sobre la forma de elaborar los cálculos deseados, al grado de poder representarlos en la forma de mecanismos más o menos elaborados.

Sin embargo, la teoría de la computación como ciencia comienza propiamente a principios del siglo XX, poco antes que las computadoras electrónicas fuesen inventadas.

En ese época varios matemáticos se preguntaban qué clase de problemas de la matemática, podían resolverse por "métodos simples" y cuales no. Y para ello debían en principio desarrollar una definición de "método para resolver problemas", es decir, necesitaban el desarrollo de una noción formal (matemática) de lo que es un cálculo/algoritmo.

Durante el siglo XIX y XX diversas corrientes filosóficas allanaron el camino de la computación a partir de las definiciones de sistemas formales. Destacando Kurt Gödel y Bertrand Russell entre otros.

Varias definiciones y modelos formales de lo que es un cálculo fueron propuestos por precursores del dominio como Alan Turing y Alonzo Church; entre esos modelos están la máquina de Turing, las funciones recursivas, y el cálculo Lambda. Todos los cuales se ha demostrado posteriormente que son equivalentes en expresividad computacional, es decir, todos pueden representar la misma clase de cómputos o algoritmos, aunque lo hagan de maneras diferentes.

Se asume normalmente que las computadoras electrónicas son también equivalentes en capacidad de cómputo a cualquiera de esos tres modelos mencionados anteriormente (si se asume que una computadora puede tener memoria infinita), pero no existe una prueba formal de ello (igualmente que no existen contraejemplos), por tal razón a tal presunción razonable se le conoce como la conjetura de Church-Turing.

De allí la relevancia del estudio de las máquinas de Turing, pues gracias a tal conjetura ampliamente aceptada como verdadera, todo problema de cómputo que sea resoluble en una máquina de Turing, se considera que también lo será en una computadora, y viceversa.

Es meritorio el hecho que gracias a la equivalencia de máquinas de Turing y computadoras, se haya determinado que existen cálculos que no pueden ser resueltos en un tiempo razonable en ninguna computadora imaginable, o incluso, que no pueden resolverse en lo absoluto, por ejemplo el problema de correspondencia de Post o el problema de predecir si una máquina de Turing cualquiera va a llegar a un estado final.

Otros temas de interés de la teoría de la computación, son la cantidad de tiempo o la cantidad de memoria necesaria para realizar un cálculo dado. Se ha determinado que existen cómputos resolubles, pero que necesitan cantidades irrealistas de tiempo o memoria para poder efectuarse. Es sumamente importante para los especialistas del dominio conocer la complejidad computacional de un algoritmo, pues ésta determinará la aplicabilidad del mismo.

Otro interés de esta ciencia, son los modelos reducidos de cómputo, que son en realidad casos particulares de una máquina de Turing. Como lo son las máquinas de estado finito esbozadas primero por Warren McCulloch y Walter Pitts en 1943, y los autómatas de pila.

La teoría de la computación tiene varias subramas propias, entre ellas:

·      La Teoría de los lenguajes y gramáticas formales, que es el estudio y procesamiento de lenguajes artificiales, a través de la utilización de modelos simplificados de cómputo, como son las autómatas finitos y los autómatas de pila.

·      La complejidad, o el estudio de la cantidad de tiempo y de espacio en memoria que toma la ejecución de un cómputo dado.

·      La Teoría de la computabilidad, o el estudio y determinación de la clase de problemas que pueden ser resueltos en una máquina de Turing.

Historia de la informática.

 

Introducción.

Máquinas para calcular.

El computador no es invento de alguien en especial, sino el resultado de ideas y realizaciones de muchas personas relacionadas con la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación. Los primeros vestigios de cálculo, por ejemplo, se remontan a 3000 adC años antes de Cristo (adC). Los babilonios que habitaron en la antigua Mesopotamia empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de "cuentas" agrupadas en carriles de caña.

La palabra cálculo, que significa piedrecilla, empleada hoy en matemáticas y medicina, tiene su origen en que antiguamente se usaron piedras pequeñas como elemento natural para contar. En medicina se usa para indicar que alguien tiene en el riñón o en la vesícula biliar, por ejemplo, formaciones sólidas a manera de piedrecillas.

Algoritmo.

Posteriormente, en el año 1800 adC, un matemático babilónico inventó los algoritmos que permitieron resolver problemas de cálculo numérico. Algoritmo es un conjunto ordenado de operaciones propias de un cálculo.

Ábaco.

Los chinos hace más de 3000 años adC. desarrollaron el ábaco, con éste realizaban cálculos rápidos y complejos. Éste instrumento tenia un marco de madera cables horizontales con bolas agujereadas que corrían de izquierda a derecha.

Siglo XVII.

En el siglo XVII, John Napier (1550-1617), matemático escocés famoso por su invención de los logaritmos (unas funciones matemáticas que permiten convertir las multiplicaciones en sumas y las divisiones en restas) inventó un dispositivo de palillos con números impresos que, merced a un ingenioso y complicado mecanismo, le permitía realizar operaciones de multiplicación y división.

En 1642 el físico y matemático francés Blaise Pascal (1623-1662) inventó el primer calculador mecánico. A los 18 años de edad, deseando reducir el trabajo de cálculo de su padre, funcionario de impuestos, fabricó un dispositivo de 8 ruedas dentadas en el que cada una hacía avanzar un paso a la siguiente cuando completaba una vuelta. Estaban marcadas con números del 0 al 9 y había dos para los decimales, con lo que podía manejar números entre 000000,01 y 999999,99. Giraban mediante una manivela, con lo que para sumar o restar había que darle el número de vueltas correspondiente en un sentido o en otro.

En 1672 el filósofo y matemático alemán Leibnitz (1646-1716) inventó una máquina de calcular que podía multiplicar, dividir y obtener raíces cuadradas en sistema binario. A los 26 años aprendió matemáticas de manera autodidáctica y procedió a inventar el cálculo infinitesimal, honor que comparte con Newton.

Siglo XIX.

En 1801 el francés Joseph Jacquard (1752-1834), utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras.

En 1879, a los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo norteamericano y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, etc. Gracias a la máquina de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880.

Siglo XX.

IBM.

Hollerith dejó las oficinas del censo en 1896 para fundar su propia Compañía: la Tabulating Machine Company. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto (en vez de las 80 cuando el censo), una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1924 Hollerith fusionó su compañía con otras dos para formar la Internacional Business Machines hoy mundialmente conocida como IBM.

Física cuántica.

1900: Comienzo de la física cuántica. A finales del siglo XIX los científicos estaban intrigados por el comportamiento de los cuerpos negros, los cuales, según la física que conocían, absorbían y radiaban energía en toda la gama de frecuencias, cosa que no ocurre con los cuerpos de color. Suponían que la energía era emitida a manera de flujo continuo mayor o menor según la frecuencia de radiación electromagnética y la cantidad de calor en el cuerpo, pero estaban equivocados.

En 1900 el físico teórico alemán Max Planck aceptó la teoría electromagnética de la luz, que sostenía que la luz era un fenómeno ondulatorio y que la materia —que se suponía que contenía pequeños cuerpos cargados eléctricamente, o partículas— irradiaba energía en la forma de ondas de luz cuando esas partículas cargadas eran aceleradas. Con el objetivo de estudiar la radiación de un cuerpo negro, Planck se imaginó las partículas cargadas como pequeños osciladores, acelerados y desacelerados repetidamente de manera uniforme.

Para poder calcular el equilibrio de la energía entre los supuestos osciladores y su radiación de entrada y salida, Planck halló que necesitaba suponer la existencia de cuantos, o diminutas divisiones de energía, en vez de una gama continua de energías posibles. Por ello, llegó a deducir la definición de un cuanto de energía como la frecuencia de la oscilación multiplicada por un diminuto número que no tardó en ser conocido como la constante de Planck. Esos supuestos fueron los utilizados por Planck para resolver el problema del cuerpo negro, pero nunca llegó más allá en una interpretación significativa de sus cuantos.

Por definición, se denomina cuanto al salto que experimenta la energía de un corpúsculo cuando absorbe o emite radiación. La energía es proporcional a la frecuencia de la radiación.

En 1905 Einstein, basándose en el trabajo de Planck, publicó su teoría sobre el fenómeno conocido como efecto fotoeléctrico y demostró que las partículas cargadas –que en esos tiempos se suponían que eran electrones- absorbían y emitían energía en cuantos finitos que eran proporcionales a la frecuencia de la luz o radiación, fenómeno que hoy se está aprovechando para crear los nuevos computadores cuánticos, en los que ya no se habla de bits que representan 1 ó 0, sino de qubits que pueden asumir a la vez dos estados opuestos.

El paso sustancial hacia la nueva teoría cuántica de los átomos se le debe al físico alemán Werner Heisenberg, quien después de haber inventado la mecánica matricial, en 1925, junto con Max Born y Pascual Jordan, elaboró una versión completa de la nueva teoría cuántica, una nueva dinámica que servía para calcular las propiedades de los átomos, igual que había servido la mecánica de Newton para calcular las órbitas de los planetas.

Para concebir el mundo cuántico, Heisenberg y Niels Bohr se esforzaron por hallar una estructura nueva que estuviera de acuerdo con la nueva mecánica cuántica. Heisenberg descubrió, cuando intentaba resolver estos problemas interpretativos, el «principio de incertidumbre», el cual revelaba una característica distintiva de la mecánica cuántica que no existía en la mecánica newtoniana.

John Vincent Atanasoft y su calculador digital.

A comienzos de los años 30, John Vincent Atanasoft, un norteamericano doctorado en física teórica, hijo de un ingeniero eléctrico emigrado de Bulgaria y de una maestra de escuela, se encontró con que los problemas que tenía que resolver requerían una excesiva cantidad de cálculo. Aficionado a la electrónica y conocedor de la máquina de Pascal y las teorías de Babbage, empezó a considerar la posibilidad de construir un calculador digital. Decidió que la máquina habría de operar en sistema binario, y hacer los cálculos de modo distinto a como los realizaban las calculadoras mecánicas.

Con 650 dólares donados por el Concejo de Investigación del Estado de Iowa, contrató la cooperación de Clifford Berry, estudiante de ingeniería, y los materiales para un modelo experimental. Posteriormente recibió otras donaciones que sumaron 6460 dólares. Este primer aparato fue conocido como ABC Atanasoff- Berry-Computer.

John Mauchly y su calculador digital.

Prácticamente al mismo tiempo que John Vincent Atanasoft, el ingeniero John Mauchly, director en ese momento del Departamento de física del Ursine College cerca de Filadelfia, se había encontrado con los mismos problemas en cuanto a velocidad de cálculo, y estaba convencido de que habría una forma de acelerar el proceso por medios electrónicos. Al carecer de medios económicos, construyó un pequeño calculador digital y se presentó al congreso de la AAAS (Asociación Americana para el Avance de la Ciencia) para presentar un informe sobre el mismo. Allí, en diciembre de 1940, se encontró con Atanasoff, y el intercambio de ideas que tuvieron originó una disputa sobre la paternidad del computador digital.

En 1941 Mauchly se matriculó en unos cursos en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania, donde conoció a J. Presper Eckert, un instructor de laboratorio. La escuela Moore trabajaba entonces en un proyecto conjunto con el ejército para realizar unas tablas de tiro para armas balísticas. La cantidad de cálculos necesarios era inmensa, tanto que se demoraba unos treinta días en completar una tabla mediante el empleo de una máquina de cálculo analógica. Aun así, esto era unas 50 veces más rápido de lo que tardaba un hombre con una sumadora de sobremesa.

Mauchly y la ENIAC.

Mauchly publicó un artículo con sus ideas y las de Atanasoff, lo cual despertó el interés de Lieutenant Herman Goldstine, un oficial de la reserva que hacía de intermediario entre la universidad y el ejército, el cual consiguió interesar al Departamento de Ordenación en la financiación de un computador electrónico digital. El 9 de abril de 1943 se autorizó a Mauchly y Eckert iniciar el desarrollo del proyecto. Se le llamó ENIAC (Electronic Numerical integrator and Computer) y comenzó a funcionar en las instalaciones militares norteamericanas del campo Aberdeen Proving Ground en Agosto de 1947. La construcción tardó 4 años y costó $486.804,22 dólares (el equivalente actual a unos tres millones de dólares por menos poder de cómputo del que actualmente se consigue en las calculadoras de mano).

El ENIAC tenía 19.000 tubos de vacío, 1500 relés, 7500 interruptores, cientos de miles de resistencias, condensadores e inductores y 800 kilómetros de alambres, funcionando todo a una frecuencia de reloj de 100.000 ciclos por segundo. Tenía 20 acumuladores de 10 dígitos, era capaz de sumar, restar, multiplicar y dividir, y tenía tres tablas de funciones. La entrada y la salida de datos se realizaba mediante tarjetas perforadas. Podía realizar unas 5000 sumas por segundo (lo cual es muy poco, comparado con la capacidad de los computadores actuales). Pesaba unas 30 toneladas y tenía un tamaño equivalente al de un salón de clases. Consumía 200 kilovatios de potencia eléctrica -un computador personal moderno consume apenas 200 vatios, y es más poderoso- y necesitaba un equipo de aire acondicionado para disipar el gran calor que producía. En promedio, cada tres horas de uso fallaba una de las válvulas.

Lo que caracterizaba al ENIAC como a un computador moderno no era simplemente su velocidad de cálculo, sino el que permitía realizar tareas que antes eran imposibles.

Howard Aiken y la Mark 1.

Entre 1939 y 1944, Howard Aiken de la Universidad de Harvard, en colaboración con IBM, desarrolló el Mark 1, conocido como Calculador Automático de Secuencia Controlada. Fue un computador electromecánico de 16 metros de largo y unos 2 de alto. Tenía 700.000 elementos móviles y varios centenares de kilómetros de cables. Podía realizar las cuatro operaciones básicas y trabajar con información almacenada en forma de tablas. Operaba con números de hasta 23 dígitos y podía multiplicar tres números de 8 dígitos en 1 segundo.

El Mark 1, y las versiones que posteriormente se realizaron del mismo, tenían el mérito de asemejarse al tipo de máquina ideado por Babbage, aunque trabajaban en código decimal y no en binario.

El avance que dieron estas máquinas electromecánicas a la informática fue rápidamente ensombrecido por el ENIAC con sus circuitos electrónicos.

Alan Turing.

1939-1945 Alan Turing, matemático inglés nacido en Londres en 1912 y fallecido en Manchester en 1954, descifra los códigos secretos Enigma usados por los alemanes en la II Guerra Mundial para sus comunicaciones. Turing fue un pionero en el desarrollo de la lógica de los computadores modernos, y uno de los primeros en tratar el tema de la inteligencia artificial con máquinas.

Norbert Wiener y la cibernética.

Durante la II Guerra Mundial, Norbert Wiener, matemático nacido en Missouri, trabajó con la defensa antiaérea norteamericana y estudió la base matemática de la comunicación de la información y del control de un sistema para derribar aviones. En 1948 publicó sus resultados en un libro que tituló CYBERNETICS (Cibernética), palabra que provenía del griego "piloto", y que se usó ampliamente para indicar automatización de procesos.

John Von Neumann.

En 1946 el matemático húngaro John Von Neumann propuso una versión modificada del ENIAC; el EDVAC (Electronic Discrete Variable Automatic Computer), que se construyó en 1952. Esta máquina presentaba dos importantes diferencias respecto al ENIAC: En primer lugar empleaba aritmética binaria, lo que simplificaba enormemente los circuitos electrónicos de cálculo. En segundo lugar, permitía trabajar con un programa almacenado. El ENIAC se programaba enchufando centenares de clavijas y activando un pequeño número de interruptores. Cuando había que resolver un problema distinto, era necesario cambiar todas las conexiones, proceso que llevaba muchas horas.

Von Neumann propuso cablear una serie de instrucciones y hacer que éstas se ejecutasen bajo un control central. Además propuso que los códigos de operación que habían de controlar las operaciones se almacenasen de modo similar a los datos en forma binaria. De este modo el EDVAC no necesitaba una modificación del cableado para cada nuevo programa, pudiendo procesar instrucciones tan deprisa como los datos. Además, el programa podía modificarse a sí mismo, ya que las instrucciones almacenadas, como datos, podían ser manipuladas aritméticamente.

Luego de abandonar la universidad, Eckert y Mauchly fundaron su propia compañía, la cual fue absorbida por Remington Rand. En 1951 entregaron a la Oficina del Censo su primer computador: el UNIVAC-I. Posteriormente aparecería el UNIVAC-II con memoria de núcleos magnéticos, lo que le haría superior a su antecesor, pero, por diversos problemas, esta máquina no vio la luz hasta 1957, fecha en la que había perdido su liderazgo en el mercado frente al 705 de IBM.

En 1953 IBM fabricó su primer computador para aplicaciones científicas: el IBM 705, primer computador que empleaba memorias de núcleos de ferrita.

En 1958 comienza la segunda generación de computadores, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío. Un transistor puede tener el tamaño de una lenteja mientras que un tubo de vacío tiene un tamaño mayor que el de un cartucho de escopeta de caza. Mientras que las tensiones de alimentación de los tubos estaban alrededor de los 300 voltios, las de los transistores vienen a ser de 10 voltios, con lo que los demás elementos de circuito también pueden ser de menor tamaño, al tener que disipar y soportar tensiones mucho menores. El transistor es un elemento constituido fundamentalmente por silicio o germanio. Su vida media es prácticamente ilimitada y en cualquier caso muy superior a la del tubo de vacío.

En 1962 el mundo estuvo al borde de una guerra nuclear entre la Unión Soviética y los Estados Unidos, en lo que se denominó “la crisis de los misiles de Cuba”. A causa de esto, una de las preocupaciones de las Fuerzas Armadas de los Estados Unidos era conseguir una manera de que las comunicaciones fuesen más seguras en caso de un eventual ataque militar con armas nucleares. Como solución entró en consideración solamente el proceso de datos en forma electrónica. Los mismos datos se deberían disponer en diferentes computadores alejados unos de otros. Todos los computadores entrelazados deberían poder enviarse en un lapso corto de tiempo el estado actual de los datos nuevos o modificados, y cada uno debería poder comunicarse de varias maneras con cada otro. Dicha red también debería funcionar si un computador individual o cierta línea fuera destruida por un ataque del enemigo. Aunque dicha problemática se planteó realmente, no deja de ser una leyenda el pensamiento generalizado de que fue la semilla o causa incentivadora del estudio del networking (trabajo en red).

Ese mismo año 1962, J.C.R. Licklider escribió un ensayo sobre el concepto de Red Intergaláctica, donde todo el mundo estaba interconectado para acceder a programas y datos desde cualquier lugar del planeta. En Octubre de ese año, Lickider es el primer director de ARPA (Advanced Research Projects Agency), o Agencia de Proyectos de Investigación Avanzada, una organización científica creada en 1958 como contestación a la puesta en orbita por parte de los rusos del primer satelite conocido como Sputnik. Dicha organización patrocinada por el gobierno, debía incentivar el desarrollo tecnológico en todos los campos para que EUA no se quedase atras en el area de investigación.

En 1963 un comité Industria-Gobierno desarrolla el código de caracteres ASCII, (se pronuncia asqui), el primer estándar universal para intercambio de información (American Standard Code for Information Interchange), lo cual permitió que máquinas de todo tipo y marca pudiesen intercambiar datos.

En 1964 la aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito impreso con múltiples componentes pasan a ser reemplazadas por los circuitos integrados. Estos elementos son unas plaquitas de silicio llamadas chips, sobre cuya superficie se depositan por medios especiales unas impurezas que hacen las funciones de diversos componentes electrónicos. Esto representa un gran avance en cuanto a velocidad y, en especial, en cuanto a reducción de tamaño. En un chip de silicio no mayor que un centímetro cuadrado caben 64.000 bits de información. En núcleos de ferrita esa capacidad de memoria puede requerir cerca de un litro en volumen.

En 1964, investigadores del Instituto Tecnológico de Massachusetts (MIT), de la Corporación Rand y del Laboratorio Nacional de Física de la Gran Bretaña, entre los que se destacan Paul Baran, Donald Davies, Leonard Kleinrock, presentaron simultáneamente soluciones a lo propuesto por las Fuerzas Armadas norteamericanas. Y ese mismo año la Fuerza Aérea le asignó un contrato a la Corporación RAND para la llamada “red descentralizada”. Ese proyecto fracasó después de muchos intentos y nunca fue realizado, pero la idea de una red que no dependiese de un solo punto central y con la transferencia de datos por paquete se quedó anclada en la cabeza de muchas personas.

Paul Baran, quien por ese entonces trabajaba con Rand Corporation, fue uno de los primeros en publicar en Data Communications Networks sus conclusiones en forma casi simultánea con la publicación de la tesis de Kleinrock sobre teoría de líneas de espera. Diseñó una red de comunicaciones que utilizaba computadores y no tenía núcleo ni gobierno central. Además, asumía que todas las uniones que conectaban las redes eran altamente desconfiables.

El sistema de Baran era algo así como una oficina de correos diseñada por un loco, que trabajaba con un esquema que partía los mensajes en pequeños pedazos y los metía en sobres electrónicos, llamados "paquetes", cada uno con la dirección del remitente y del destinatario. Los paquetes se lanzaban al seno de una red de computadores interconectados, donde rebotaban de uno a otro hasta llegar a su punto de destino, en el cual se juntaban nuevamente para recomponer el mensaje total. Si alguno de los paquetes se perdía o se alteraba (y se suponía que algunos se habrían de dislocar), no era problema, pues se volvían a enviar.

En 1966 la organización científica ARPA se decidió a conectar sus propios computadores a la red propuesta por Baran, tomando nuevamente la idea de la red descentralizada. A finales de 1969 ya estaban conectados a la red ARPA los primeros cuatro computadores, y tres años más tarde ya eran 40. En aquellos tiempos era, sin embargo, la red propia de ARPA. En los años siguientes la red fue llamada ARPANET (red ARPA), y su uso era netamente militar.

En 1966, un grupo de investigadores de los Laboratorios Bell (hoy AT&T) desarrolló un sistema operativo experimental llamado MULTICS (Información multiplexada y Sistema de Computación) para usar con un computador General Electric. Los laboratorios Bell abandonaron el proyecto, pero en 1969, Ken Thompson, uno de los investigadores del MULTICS, diseñó un juego para dicho computador, llamado Space Travel (Viaje Espacial), que simulaba el sistema solar y una nave espacial. Con la ayuda de Dennis Ritchie, Thompson volvió a escribirlo, ahora para un computador DEC (Digital Equipment Corporation), aprovechando que, junto con Ritchie y Rudd Canaday, había creado también un sistema operativo multitarea, con sistema de archivos, intérprete de órdenes y algunas utilidades para el computador DEC. Se le llamó UNICS (Información Uniplexada y Sistema de Computación) y podía soportar dos usuarios simultáneamente. En 1970 se renombró Unix. Fue un sistema operativo bueno y seguro, pero su licencia de uso era muy costosa, lo cual lo ponía fuera del alcance de muchas personas. Esto motivaría luego la creación del Proyecto GNU para el desarrollo de software libre.

En 1969 la organización ARPA junto con la compañía Rand Corporation desarrolló una red sin nodos centrales basada en conmutación de paquetes tal y como había propuesto Paul Baran. La información se dividía en paquetes y cada paquete contenía la dirección de origen, la de destino, el número de secuencia y una cierta información. Los paquetes al llegar al destino se ordenaban según el número de secuencia y se juntaban para dar lugar a la información. Al viajar paquetes por la red, era más difícil perder datos ya que, si un paquete concreto no llegaba al destino o llegaba defectuoso, el computador que debía recibir la información sólo tenía que solicitar al computador emisor el paquete que le faltaba. El protocolo de comunicaciones se llamó NCP (Network Control Protocol). Esta red también incluyó un gran nivel de redundancia (repetición) para hacerla más confiable.

ARPANET conectó los ordenadores centrales vía ordenadores de pasarela pequeños, o “routers”, conocidos como Interface Message Processors (IMPs). El 1 de septiembre de 1969 el primer IMP llegó a UCLA. Un mes después el segundo fue instalado en Stanford. Después en UC Santa Barbara y después en la Universidad de Utah.

En 1971 se creó el primer programa para enviar correo electrónico. Fue Ray Tomlinson, del BBN, y combinaba un programa interno de correo electrónico y un programa de transferencia de ficheros. También en este año un grupo de investigadores del MIT presentaron la propuesta del primer “Protocolo para la transmisión de archivos en Internet”. Era un protocolo muy sencillo basado en el sistema de correo electrónico pero sentó las bases para el futuro protocolo de transmisión de ficheros (FTP).

Las instituciones académicas se interesaron por estas posibilidades de conexión. La NSF (National Science Foundation) dio acceso a sus seis centros de supercomputación a otras universidades a través de la ARPANET. A partir de aquí se fueron conectando otras redes, evitando la existencia de centros, para preservar la flexibilidad y la escalabilidad.

En 1973 ARPA cambia su nombre por DARPA, inicia un programa para investigar técnicas y tecnologías para interconectar redes de tipos diferentes y se lanzan dos nuevas redes: PRNET por Packet Radio de la Universidad de Hawaii, diseñada por Norm Abramson, conectando siete computadores en cuatro islas, y SATNET, una red conectada vía satélite, enlazando dos naciones: Noruega e Inglaterra.

Bob Kahn y Larry Roberts se proponen interconectar a DARPA con otras redes, PRNET y SATNET, con diferentes interfaces, tamaños de paquetes, rotulados, convenciones y velocidades de transmisión. Y en 1974, Vint Cerf, primer Presidente de la Internet Society, y conocido por muchos como el padre de Internet, junto con Bob Kahn, publican “Protocolo para Intercomunicación de Redes por paquetes”, donde especifican en detalle el diseño de un nuevo protocolo, el Protocolo de control de transmisión (TCP, Transmission Control Protocol), que se convirtió en el estándar aceptado. La implementación de TCP permitió a las diversas redes conectarse en una verdadera red de redes alrededor del mundo.

En ese mismo año se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de una red local (LAN).

En enero de 1975 la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer computador personal reconocible como tal. Tenía una CPU Intel de 8 bits y 256 bytes de memoria RAM. El código de máquina se introducía por medio de interruptores montados en el frente del equipo, y unos diodos luminosos servían para leer la salida de datos en forma binaria. Costaba 400 dólares, y el monitor y el teclado había que comprarlos por separado.

En este mismo año 1975 se funda Microsoft, y en 1976 Apple, la fábrica de computadores con la manzanita.

En 1977 se hace popular el computador Apple desarrollado por Steve Jobs y Steve Wozniak en un garaje, y al año siguiente se ofrece la primera versión del procesador de palabras WordStar.

En enero de 1979 Daniel Fylstra crea la CalcuLedger, la primera hoja de cálculo y más tarde denominada VisiCalc, la cual dio origen a Multiplan de Microsoft, Lotus 1-2-3 (en 1982), Quattro Pro, y Excel.

También en 1979, ARPA crea la primera comisión de control de la configuración de Internet y en 1981 se termina de definir el protocolo TCP/IP (Transfer Control Protocol / Internet Protocol) y ARPANET lo adopta como estándar en 1982, sustituyendo a NCP. Son las primeras referencias a Internet, como “una serie de redes conectadas entre sí, específicamente aquellas que utilizan el protocolo TCP/IP”. Internet es la abreviatura de Interconnected Networks, es decir, Redes interconectadas, o red de redes.

En octubre de 1980 la IBM comenzó a buscar un sistema operativo para la nueva computadora personal (PC) que iba a lanzar al mercado, cosa de la cual se enteraron Bill Gates y su amigo Paul Allen, autores del lenguaje de programación Microsoft Basic, basado en el ya existente lenguaje Basic. Ellos compraronlos derechos de QDOS (Quick and Dirty Operating System), un sistema operativo desarrollado por Tim Paterson y basado en CP/M, un sistema escrito por Gary Kildal, y en 1981 lo negociaron con IBM como Microsoft DOS.

En 1981 IBM presenta el primer computador personal (PC) reconocido popularmente como tal, con sistema operativo DOS y procesador Intel 8088. Es bueno recordar que IBM y Microsoft son coautores del sistema operativo PC-DOS/MS-DOS, ya que IBM ayudó a Microsoft a pulir los muchos errores que el MS DOS tenía originalmente.

En 1983 IBM presenta el PC XT, con un procesador 8088 de 4,77 Mhz de velocidad y un disco duro de 10 Mb, Microsoft ofrece la versión 1.0 del procesador de palabras Word para DOS y ARPANET se separa de la red militar que la originó, de modo que ya sin fines militares se puede considerar esta fecha como el nacimiento de Internet. Es el momento en que el primer nodo militar se desliga, dejando abierto el paso para todas las empresas, universidades y demás instituciones que ya por esa época poblaban la red.

GNU/Linux.

En 1983 Richard Stallman, quien por ese entonces trabajaba en el Instituto Tecnológico de Massachusetts (MIT), decidió dedicarse al proyecto de software libre que denominó GNU, acrónimo de la expresión Gnu’s Not Unix (GNU no es Unix), el cual es compatible con Unix.

La palabra “libre” en este caso indica libertad (en inglés se usa la misma expresión “free” para libre y gratuito). Se puede o no pagar un precio por obtener software GNU, y una vez que se obtiene hay libertad de copiar el programa y darlo a otros, libertad de cambiar el programa como se quiera (por tener acceso completo al código fuente) y libertad de distribuir una versión mejorada, ayudando así a desarrollar la comunidad GNU. Si redistribuyes software GNU puedes cobrar una cuota por el acto físico de efectuar la copia, o puedes regalarla.

Las personas deseosas de ejecutar Unix en los PCs, y que no podían pagar el precio de la licencia de éste, podían instalar Minix, un sistema operativo parecido a Unix, desarrollado por el profesor Andrew Tanenbaum para enseñar a sus alumnos acerca del diseño de sistemas operativos. Sin embargo, debido al enfoque puramente educacional del Minix, Tanenbaum no permitía que éste fuera modificado demasiado, ya que esto podía hacerlo complejo y difícil de entender.

La PC.

En agosto de 1984 IBM presenta el PC AT, un sistema con procesador Intel 286, bus de expansión de 16 bits y 6 Mhz de velocidad. Tenía 512 kb de memoria RAM, un disco duro de 20 Mb y un monitor monocromático. Precio en ese momento: 5.795 dólares.

En noviembre de 1985 Microsoft presenta el sistema operativo Windows, demostrando que los computadores compatibles IBM podían manejar también el ambiente gráfico, usual en los computadores Mac de Apple.

En septiembre de 1986 Compaq lanza el primer computador basado en el procesador Intel 80386, adelantándose a IBM.

Hipertexto.

En 1990 Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. Su sistema hizo mucho más facil compartir y encontrar datos en Internet. Berners-Lee también creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.

Historia del Hipertexto.

Vannevar Bush y el Memex.

Los especialistas en hipertexto (Vannevar Bus no usaba la palabra hipertexto y pasarían dos décadas hasta que alguien lo hiciera, pero sentó las bases de lo que se conocería después como hipertexto) hacen remontar el concepto a un artículo pionero del mismo Vannevar Bus titulado "As We May Think", en un número de julio de 1945 en la edición de la revista The Atlantic Monthly, sobre la necesidad de máquinas de procesamiento de información mecánicamente conectadas para ayudar a los estudiosos y ejecutivos frente a lo que se estaba convirtiendo en una explosión de la información.

Vannevar Bus estaba estupefacto por “la creciente montaña de investigación” a la que debían enfrentarse los trabajadores en todos los campos, Bus se dio cuenta que el número de publicaciones ya había “crecido mucho más allá de nuestra capacidad de aprovechar realmente la información acumulada. El conjunto de la experiencia humana está creciendo a un ritmo prodigioso, pero los medios que empleamos para desplazarnos por este laberinto hasta llegar al punto importante del momento son los mismos que utilizábamos en los tiempos de las carabelas”. Añadía: “Puede que haya millones de grandes ideas, así como los resúmenes de las experiencias en que se basan, todo ello archivado en estructuras de piedra de aceptable arquitectura; pero, si el estudioso sólo consigue acceder a uno de ellos tras una semana de investigación diligente, muy probablemente no podrá mantener sus síntesis al día”. Lo que quiere decir es que su forma de acceder a la información iría de forma tan lenta que cuando ya consigue un artículo sobre su tema de interés, ya se han generado muchos más sobre el mismo punto

Según Vannevar Bush, la solución al problema vendría si se resolvía lo él denominó "el asunto de la selección” -- la recuperación de la información -- y la razón primaria que los que necesitan información no puede encontrar cuentan en cambio con medios inadecuados de almacenar, modificar y categorizar información, a la artificialidad de sistemas de indexar. Decía: “Cuándo los datos de cualquier tipo se colocan en una base de datos o se almacenan, son archivados alfabéticamente o numéricamente, y la información se encuentra (cuando es) se realiza un mapa hacia abajo en subclase a la subclase. Puede estar en sólo un lugar, a menos que utilicemos los duplicados; uno tiene que tener las reglas en cuanto a cuál es el camino parea localizarlo, y las reglas son incómodas. Encuentro un artículo, además, uno tiene que surgir del sistema y reentrar en un sendero nuevo”.

Después de describir los medios de almacenar y clasificar el saber de su época, Bush se queja, "La mente humana no funciona así" ("As We May Think”), sino por asociación. “Sujetando”un hecho o una idea, “la mente salta instantáneamente al dato siguiente, que le es sugerido por asociación de ideas, siguiendo alguna intrincada trama de caminos conformada por las células del cerebro". Bush al fijarse cómo funcionaba la mente, concluye que "opera por asociación, que la mente salta inmediatamente al siguiente punto que le sugiere la asociación de ideas, por lo tanto, creía que un sistema de recuperación de información debería seguir un perfil similar, siendo capaz de conectar asuntos relacionados.

La solución al problema: el dispositivo del Memex.

Para liberarnos de los confinamientos de inadecuados sistemas inadecuados de clasificación y permitir seguir nuestra tendencia natural a "la selección por asociación, y no mediante índices”, Vannevar Bush propone entonces el dispositivo, del "Memex", capaz de llevar a cabo, de una manera más eficiente y más parecida a la mente humana, la manipulación de hechos reales y de ficción. Según explica: "Un memex es un dispositivo en el que una persona guarda sus libros, archivos y comunicaciones, dotados de mecanismos que permiten la consulta con gran rapidez y flexibilidad. Es un accesorio o suplemento intimo y ampliado de su memoria”. El Memex se concebía como un dispositivo o aparato, se trataba de una especie de mesa con superficies translúcidas, palancas y motores para una búsqueda rápida de archivos en forma de microfilmes.

Nota: fue realmente durante la década de los años treinta, escribiendo antes de los tiempos del ordenador digital, que por primera vez le vino la idea del Memex a Vannevar Bus, idea a la que le dirigió su atención de forma intermitente durante treinta años.

Funcionamiento y características principales del Memex.

Se trataba de un aparato de uso individual y privado que almacena libros, archivos y comunicaciones como lo hacen las bibliotecas, pero su búsqueda es mecanizada y veloz. Lo que Bush veía mentalmente es en parte un PC contemporáneo y en parte un sofisticado programa de hipertexto. El modo en que describe el uso de su memex es una descripción perfecta de cómo un lector contemporáneo se mueve por el hipertexto: "...construye un camino a través del laberinto de materiales disponibles siguiendo su propio interés."

Además de buscar y recuperar información, el Memex también permitía al lector "añadir notas marginales y comentarios, valiéndose de un posible tipo de fotografía seca; e incluso podría hacerlo con un sistema de agujas como el telégrafo que se ven hoy en da en las salas de espera de las estaciones del ferrocarril, igual que si tuviera la página física delante de él.

De este aspecto crucial del Memex concebido por Bus: dos cosas llaman la atención: primero, Bush está convencido de la necesidad de anotar, durante la lectura, los pensamientos transitorios y las reacciones al texto. Con este énfasis, lo que hace Bush es redefinir el concepto de lectura como un proceso activo que implica escritura. Y, segundo, la referencia al lector perspicaz y activo, que puede anotar un texto “igual que si tuviera la página física delante de él", atestigua la necesidad de concebir un texto más virtual que físico. Una de las cosas más curiosas acerca de la posición de Bush es como utiliza las limitaciones de una forma de texto para idear una tecnología nueva, y cómo ésta nos lleva, a su vez, a una concepción totalmente nueva del texto.

No son solamente su capacidad para recuperar la información y anotarla, sino también su sistema de “índice por asociación”, que los actuales sistemas del hipertexto denominan nexo, “cuya idea básica es la capacidad de cualquier artículo para, a su vez, seleccionar, inmediata y automáticamente, otro artículo”.

Bush nos hace una descripción de cómo los lectores crearían "trayectos infinitos”con esos nexos: “Al elaborar un trayecto, el usuario primero le da un nombre, luego introduce dicho nombre en su libro de códigos y lo teclea en el teclado. Delante de él están los dos artículos que han de unirse proyectados en dos superficies de visionado adyacente. Debajo de ellos, hay unos espacios para códigos en blanco y un puntero para designarlos. El usuario solo tiene que tocar una tecla y los dos artículos se encuentran unidos. En cada espacio para códigos consta el código pertinente del código asociado. También en el espacio para códigos, pero sin que se vea, hay una serie de puntos que serán leídos por una célula fotoeléctrica; estos indican, con su posición relativa, el número de índice del otro artículo. Más adelante, cada vez que se visione uno de los artículos, el otro podrá ser recuperado con simplemente apretar un botón situado debajo del correspondiente código”.

La increíble premonitoria descripción que hace Bush de cómo el usuario del Memex crea y luego sigue trayectos solo puede equipararse a su reconocimiento crucial de que estos trayectos mismos constituyen una nueva forma de textualidad e incluso de escritura. Como él mismo lo explica: "cuándo se han unido numerosos artículos para formar un trayecto. . . es exactamente como si se hubiesen reunido artículos físicos desde fuentes muy distantes, y se lo hubiese encuadernado juntos para formar un libro nuevo." Y añade: “de hecho, va incluso más lejos, ya que cada artículo puede estar unido en numerosos trayectos a la vez", y, así, cada bloque de texto, imagen u otra información puede formar parte de varios libros.

Estos memex nuevo reserva a sí mismo, se aclara, es el libro nuevo, o una versión adicional del libro nuevo, y, como libros, éstos arrastran los conjuntos o las telarañas se pueden compartir. El Bush propone, otra vez bastante exactamente, eso "formas enteramente nuevas de enciclopedias aparecerán, ya hecho con una malla de los rastros asociativos que corren por ellos, se prepara para ser dejado caer en el memex y allí amplificado". Los lector-escritores igualmente importantes e individuales pueden compartir los conjuntos de documento y los aplica a problemas nuevos.

Sistema operativo GNU/Linux.

En 1991 Linus Torvalds, un estudiante de Ciencias de la Computación de la Universidad de Helsinki (Finlandia), al ver que no era posible extender las funciones del Minix, decidió escribir su propio sistema operativo compatible con Unix, y lo llamó Linux (el parecido con su nombre personal es mera coincidencia).

Miles de personas que querían correr Unix en sus PCs vieron en Linux su única alternativa, debido a que a Minix le faltaban demasiadas cosas. El proyecto GNU que Stallman había iniciado hacía ya casi diez años había producido para este entonces un sistema casi completo, a excepción del kernel, que es el programa que controla el hardware de la máquina, el cual desarrolló Torvalds y agregó al GNU para formar Linux.

Linux es un sistema operativo libre, que ya viene con licencia (la licencia GPL). Es más estable que Windows (casi no se bloquea), de arquitectura abierta (puede ser adaptado por el usuario a sus propias necesidades) y es poco atacado por los virus.

A mediados de los años noventa Linux se había convertido ya en el Unix más popular entre la gente que buscaba alternativas al sistema Windows de Microsoft. Hoy en día existen varias distribuciones de Linux, tales como Caldera, Corel, Debian, Mandrake, RedHat, SuSe, Slackware y Stampede. En Internet se puede encontrar el enfoque y la facilidad de uso de cada una de estas distribuciones Linux.

Alpha.

Arquitectura diseñada por DEC e introducida en 1992 bajo el nombre AXP, como reemplazo a la serie VAX que comunmente utilizaba el sistema operativo VMS y que luego originaría el openVMS. Cuenta con un set de instrucciones RISC de 64 bits especialmente orientada a cálculo de punto flotante.

No se ha hecho muy popular pero si es reconocida su tecnología en el entorno corporativo y ha sido siempre objeto de control de exportación por parte de los Estados Unidos y su política de seguridad interna, debido a lo avanzado de su utilización.

IBM y las computadoras cuánticas.

En 1993 Charles H. Bennet de IBM; Gilles Brassard, Claude Crépeau y Richard Joasza de la Universidad de Montreal; Asher Peres del Instituto de Tecnología de Israel (Technion) y William Wootters del Williams College, descubrieron que un rasgo de la mecánica cuántica, llamado enlazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto (quantum) aplicada a la construcción de computadoras cuánticas y a la teleportación (teleportation).

Windows.

Desde 1995, año del lanzamiento de Windows 95, Microsoft ha sacado al mercado varias versiones mejoradas, y supuestamente corregidas, tales como Windows 98, 2000 (Server y Proffesional), NT Workstation, NT SMB (Small Business Server), ME, XP (Proffesional y Home Edition) y Windows Vista (nombre clave Longhorn). Anteriores a estas versiones estuvieron Windows 1.0, Windows 3.10 y Windows for Workgroups.

Internet 2.

En octubre de 1996 se creó Internet 2, muchísimo más veloz y de banda más ancha que la Internet original, lo cual permite el manejo de archivos muy grandes y aplicaciones en videoconferencia, telemedicina y muchas otras cosas imprácticas por Internet 1. Fue resultado de la unión de 34 de las principales universidades de Estados Unidos, las cuales formaron la University Corporation for Advanced Internet Development (UCAID).

Computador cuántico.

El 15 de agosto del 2000, Isaac Chuang, investigador de los laboratorios de IBM en Almaden (Estados Unidos), durante una conferencia en la Universidad de Stanford, describió los experimentos que su equipo llevó a cabo para construir un computador cuántico y mostró el potencial que esta tecnología ofrece para la resolución de problemas complejos. Por ejemplo, con un computador cuántico se podrán resolver en un minuto problemas que hoy, con un computador clásico, se tardaría cientos de años.

Un computador cuántico (quantum computer) utiliza las leyes de la mecánica cuántica para resolver problemas. Son leyes muy raras que hasta hace muy poco se usaban para crear paradojas, pero que, a partir de los estudios de Planck y del físico vienés Erwin Schrödinger, se comenzó a averiguar que se podían aplicar a la computación. Una de ellas dice: "las cosas no están definidas, a menos que las observes". Otra ley argumenta: "Un gato puede estar vivo y muerto a la vez". Una tercera ley, resultado de la unión de la primera y la segunda, expresa: "Un gato deja de estar vivo y muerto a la vez cuando uno lo observa. En ese momento o está vivo, o está muerto. Pero si no se le observa, su estado no está definido". Una cuarta ley afirma: "Una partícula puede pasar por dos agujeros a la vez, y los dos agujeros pueden estar en cualquier sitio".

El prototipo de computador cuántico construido por el equipo de investigadores de IBM constaba de 5 átomos, se programaba mediante pulsos de radiofrecuencia y su estado podía ser leído mediante instrumentos de resonancia magnética, similares a los empleados en hospitales y laboratorios de química. En este computador, cada uno de los átomos de flúor que lo componen actúa como un qubit; un qubit es similar a un bit en un computador electrónico tradicional, pero con una diferencia: merced al curioso comportamiento de las partículas, puede estar en ambos estados simultáneamente, y dos partículas pueden estar relacionadas entre sí, de manera que aunque en un momento dado se desconoce el estado de cada una de ellas, se sabe que sus estados son opuestos.

Mientras se trabaja en el diseño comercial de los computadores cuánticos, los cuales harán parecer a los PC binarios actuales como si fuesen de la época de las cavernas, por su mayor capacidad de memoria y extraordinaria velocidad, la tecnología sigue avanzando. Actualmente se consiguen computadores con procesadores Intel o AMD con más de 2,4 Ghz de velocidad.

Actualmente se producen monitores de imagen tridimensional de pantalla plana y se trabaja en la teleportación de objetos con tecnología cuántica.

Microsoft.

Se prevee que a finales de 2006 Microsoft lance al mercado la nueva versión de Windows: Windows Vista (denominado provisionalmente durante su desarrollo Windows Longhorn). Actualmente se encuentra en periodo de prueba la beta 1 que está siendo probada por unos 10.000 testeadores. Se plantea realizar dos versiones beta aunque no se descarta crear más. Se ha anunciado que saldrán a la venta en diciembre de 2006.

Banda ancha y modem.

En 2004, los usuarios de internet con conexión de banda ancha superan a los usuarios de internet con conexión vía modem en los Estados Unidos. La misma tendencia se observa en muchos paises.