Grandes figuras de la Informática.

 

 

Charles Babbage.

Charles Babbage (Teignmouth, Devonshire, Gran Bretaña, 26 de diciembre de 1791- 18 de octubre de 1871) fue un matemático inglés y científico protoinformático. Fue la primera persona en concebir la idea de lo que hoy llamaríamos un ordenador. En el Museo de Ciencias de Londres se exhiben partes de sus mecanismos inconclusos.

Primeros años.

Nacido en 1791 en Teignmouth, Devonshire, hijo de un acaudalado banquero de Londes, Benjamin Babbage. Fue alumno del Trinity College y de Peterhouse en Cambridge, donde se graduó en 1814. Este mismo año, se casó con Georgiana Whitmore sin el consentimiento de su padre, por lo que perdió el acceso a la fortuna de éste. Tuvieron ocho hijos, pero sólo tres vivieron a la edad adulta. La esposa de Babbage murió en 1827.

Diseño de computadoras.

Babbage descubrió un profundo error en el cálculo de tablas matemáticas e intentó encontrar un método por el cual podrían ser calculadas automáticamente por una máquina sin errores, fatiga o sujeta al aburrimiento del cálculo que sufrían las personas encargadas de compilar las tablas matemáticas de la época. Esta idea la tuvo en 1812. Tres diversos factores parecían haberlo influenciado: una aberración al desorden, su conocimiento de tablas logarítmicas, y los trabajos de máquinas calculadoras realizadas por Blaise Pascal y Gottfried Leibniz. En 1822, en una carta dirigida a Sir Humphrey Davy en la aplicación de maquinaria al cálculo e impresión de tablas matemáticas, discutió los principios de una máquina calculadora.

Máquina diferencial.

Presentó un modelo que llamo máquina diferencial en la Royal Astronomical Society en 1821. Su propósito era tabular polinomios usando un método numérico llamado el método de las diferencias. La sociedad aprobó su idea, y apoyó su petición de una concesión de 1.500 £ otorgadas para este fin por el gobierno británico en 1823. Babbage comenzó la construcción de su máquina, pero ésta nunca fue terminada. Dos cosas fueron mal. Uno era que la fricción y engranajes internos disponibles no eran lo bastantes buenos para que los modelos fueran terminados, siendo también las vibraciones un problema constante. El otro fue que Babbage cambiaba incesamente el diseño de la máquina. En 1833 se habían gastado 17.000 £ sin resultado satisfactorio.

En 1991, coincidiendo con el bicentenario del nacimiento de Babbage, el museo de ciencia de Kensington, construyó una máquina diferencial basándose en los dibujos de Babbage y utilizando sólo técnicas disponibles en aquella época. La máquina funcionó sin problemas.

Máquina analítica.

Entre 1833 y 1842, Babbage lo intentó de nuevo; esta vez, intentó construir una máquina que fuese programable para hacer cualquier tipo de cálculo, no sólo los referentes al cálculo de tablas logarítimcas o funciones polinómicas. Esta fue la máquina analítica. El diseño se basaba en el telar de Joseph Marie Jacquard, el cual usaba tarjetas perforadas para determinar como una costura debía ser realizada. Babbage adaptó su diseño para conseguir calcular funciones analíticas. La máquina analítica tenía dispositivos de entrada basados en las tarjetas perforadas de Jacquard, un procesador aritmético, que calculaba números, una unidad de control que determinaba qué tarea debía ser realizada, un mecanismo de salida y una memoria donde los números podían ser almacenados hasta ser procesados. Se considera que la máquina analítica de Babbage fue la primera computadora del mundo. Un diseño inicial plenamente funcional de ella fue terminado en 1835. Sin embargo, debido a problemas similares a los de la máquina diferencial, la máquina analítica nunca fue terminada. En 1842, para obtener la financiación necesaria para realizar su proyecto, Babbage contactó con Sir Robert Peel. Peel lo rechazó, y ofreció a Babbage un título de caballero que fue rechazado por Babbage. Lady Ada Lovelace, matemática e hija de Lord Byron, se enteró de los esfuerzos de Babbage y se interesó en su máquina. Promovió activamente la máquina analítica, y escribió varios programas para la máquina analítica. Los diferentes historiadores concuerdan que esas instrucciones hacen de Ada Lovelace la primera programadora de computadoras en el mundo.

Computación años después.

En 1855 un suizo llamado George Schuetz construyó con éxito un modelo de la máquina diferencial. Este se basaba en el diseño de 1834 de Babbage, que estuvo entre los que lo que la examinaron. En 1859, el gobierno Británico compro una de estas máquinas para su uso en la Oficina General del Registro. La compra no tuvo efectos sin embargo en las continuas denegaciones del Gobierno de los fondos necesarios para la construcción de la más avanzada máquina analítica. Debido en parte a los esfuerzos de Babbage en hacer funcionar estas máquinas los Británicos obtuvieron una maquinaria y engranajes superiores durante las siguientes décadas, razón que contribuyó parcialmente a la superioridad de la marina Británica en la Primera Guerra Mundial.

Promoción del cálculo analítico.

Babbage es recordado por otras realizaciones también. La promoción del cálculo analítico es quizás la primera entre ellas. En 1812, Babbage colaboraba activamente en la Sociedad Analítica. La tarea primordial de esta sociedad, conducida por el estudiante George Woodhouse, era promover el Leibniziano, o cálculo analítico, sobre el estilo de cálculo Newtoniano. El cálculo de Newton era torpe y aproximado, y era usado más por razones políticas que prácticas. La Sociedad Analítica incluía a Sir John Herschel y George Peacock entre sus miembros. En los años 1815-1817 contribuyó en el "calculo de funciones" de las Philosophical Transactions -transacciones filosóficas-, y en 1816 fue hecho miembro de la Royal Society.

Criptografía.

Charles Babbage también logró resultados notables en criptografía. Rompió la cifra auto llave de Vigenère, así como la cifra mucho más débil que se llama cifra Vigenère hoy en día. La cifra del auto llave fue llamada "la cifra indescifrable", aunque debido a la confusión popular muchos pensaron que la cifra apolialfabetica más débil era indescifrable. El descubrimiento de Babbage fue usado en campañas militares inglesas, y era considerado un secreto militar. Como resultado el mérito por haber descifrado esta clave le fue otorgado a Friedrich Kasiski, quien descifró también este sistema criptográfico algunos años después.

Otras realizaciones.

De 1828 a 1839 Babbage fue profesor de matemáticas en Cambridge. Escribió artículos en distintas revistas científicas, y era miembro activo de la Astronomical Society -sociedad astronómica- en 1820 y de la Statistical Society -sociedad estadística- en 1834. Durante los últimos años de su vida residió en Londres, dedicándose a la construcción de máquinas capaces de la ejecución de operaciones aritméticas y cálculos algebraicos.

Propuso el sistema de franqueo postal que utilizamos hoy en día. Hasta entonces el coste de enviar una carta dependía de la distancia que tenía que viajar; Babbage advirtió que el coste del trabajo requerido para calcular el precio de cada carta superaba el coste del franqueo de ésta y propuso un único coste para cada carta con independencia del sitio del país al que era enviada.

Fue el primero en señalar que la anchura del anillo de un árbol dependía del tiempo que había hecho ese año, por lo que sería posible deducir climas pasados estudiando árboles antiguos.

Invento el avisador de vacas, un aparato que se sujetaba a la parte delantera de las locomotoras de vapor para que las vacas se apartasen de las vias del ferrocarril.

Se interesó también por temas políticos y sociales e inició una campaña para deshacerse de los organilleros y músicos callejeros de Londres, aunque éstos pasaron al contraataque y se organizaban en torno a su casa tocando lo más alto que podían.

John Backus.

John Backus (3 de diciembre de 1924 - ) Matemático estadounidense, nacido en Filadelfia. Especialista en informática, fue el diseñador del lenguaje de programación de alto nivel FORTRAN, aplicable a la resolución de problemas científico-técnicos, y de la notación normalizada que lleva su nombre (Backus Normal Form, BNF), empleada en la descripción de los lenguajes informáticos. También participó en el desarrollo del lenguaje ALGOL.

James Cooley.

El Dr. James Cooley nació en 1926. Él recibió una licenciatura en los artes de la universidad de Manhattan en 1949. Él entonces ganó su maestría en matemáticas y doctorado en matemáticas aplicadas de la universidad de Columbia en 1951 y 1961, respectivamente. Cooley es un pionero en la señal numérica que procesa el campo, desarrollando el Fourier fast transform (FFT), que se ha utilizado en estudios atmosféricos y analizar las señales enviadas a la tierra de espacio exterior. Él desarrolló el FFT con teoría y usos matemáticos, y ha ayudado a hacerla más extensamente disponible dirgiendo e ideando nuevos tipos de algoritmos para los usos científicos. En materia de informática aplicó la cristalografía en una serie con sus innovaciones en algoritmos.

Edsger Wybe Dijkstra.

Edsger Wybe Dijkstra (*11 de mayo, 1930 - †6 de agosto, 2002) fue un científico de la computación de origen holandés.

Dijkstra estudió física teórica en la Universidad de Leiden. Trabajó como investigador para Burroughs Corporation a principios de los años 1970. En la Universidad de Texas en Austin, Estados Unidos, ocupó el Schlumberger Centennial Chair in Computer Sciences. Se retiró en 2000.

Entre sus contribuciones a la informática está el algorítmo de caminos mínimos; también conocido como Algoritmo de Dijkstra. Recibió el Premio Turing en 1972.

Era conocido por su baja opinión de la sentencia GOTO en programación, que culminó en 1968 con el artículo Go To Statement Considered Harmful, visto como un paso importante hacia el rechazo de la expresión GOTO y de su eficaz reemplazo por estructuras de control tales como el bucle while. El famoso título del artículo no era obra de Dijkstra, sino de Niklaus Wirth, entonces redactor de Comunicaciones del ACM. Dijkstra era un aficionado bien conocido de Algol60, y trabajó en el equipo que desarrolló el primer compilador para este lenguaje. En ese mismo año creó el primer sistema operativo con estructura jerárquica, de niveles o capas. Fue denominado THE (Technische Hogeschool, Eindhoven) que se utilizó con fines didácticos.

Desde los años 70, el principal interés de Dijkstra fue la verificación formal. La opinión que prevalecía entonces era que uno debe primero escribir un programa y seguidamente proporcionar una prueba matemática de su corrección. Dijkstra objetó que las pruebas que resultan son largas e incómodas, y que la prueba no da ninguna comprensión de cómo se desarrolló el programa. Un método alternativo es la derivación de programas, «desarrollar prueba y programa conjuntamente». Uno comienza con una especificación matemática del programa que se supone va a hacer y aplica transformaciones matemáticas a la especificación hasta que se transforma en un programa que pueda ser ejecutado. El programa que resulta entonces es sabido correcto por la construcción. Mucho de los últimos trabajos de Dijkstra tratan sobre las maneras de hacer fluida la argumentación matemática.

Dijkstra murió el 6 de agosto de 2002 después de una larga lucha contra el cáncer.

Mark Weiser.

Mark Weiser (1952-1999) Un hombre sencillamente inteligente. Su temprana muerte dejó al mundo de la informática al precursor de la "computación ubicua". Bajo esta teoría aplicativa sobre dos bases fundamentales: El sistema Distribuido y la computación móvil. La computación ubicua tiene cuatro cimientos: el uso inteligente de espacios eficaces; invisibilidad; escala local y ocultación de los desniveles de acondicionamiento. Weiser propone y se basa en que la interacción actual operador-computador no es la ordenada. La computadora es un punto de conexión demasiado enredado, su manejo requiere mucha atención exclusiva, quitando la atención del usuario de la tarea que tiene que hacer. A waiser le pareció lógico defender el "ocaso " de las computadoras, pero decía que entendiéramos bien este término, los dispositivos de tratamiento de la información quedan ocultos, inmateriales a los usuarios a los cuales dan prestaciones. Cuando en 1991 propone esta teoría, el nivel de tecnología era demasiado costoso y la Xerox descarta de plano realizarlo, sólo en 1998 comenzaron a aplicar su teoría que no pudo ver concluída.

Gene Golub.

Gene Howard Golub. Doctorado en Matemáticas en la Universidad de Illinois. Sus trabajos se basan en Análisis Numérico, Programa Matemático, e Informática Estadística. El trabajo en la universidad de Stanford de Golub en el cómputo de la matriz inventa y analiza algoritmos para solucionar problemas numéricos que surgen en las operaciones científicas y la estadística. Desarrolló algoritmos para solucionar sistemas lineales con una estructura especial, calcula los valores propios de las secuencias de matrices, y estima las funciones de esas mismas matrices. Además de aportar la solución al empleo de polinomios Chebyshev de la matriz en la solución iteractiva de ecuaciones lineales comparadas al método de sobrerelajación sucesiva. En 1993 lo nombraron miembro permanente de la Academia de Ciencias de los EE.UU.

Alston Householder.

Alston Scott Householder (Nació el 5 de Mayo de 1904 en Rockford, Illinois, USA y falleció el 4 de julio de 1993 en Malibu, California, USA). Finalizó sus estudios de Filosofía en la Universidad de Cornell (Nueva York) en el año 1927. Luego de ejercer como profesor en varias universidades y preparatorias en el año 1947 recibe su doctorado de matemáticas en la Universidad de Chicago. Su tesis marcaría el futuro de sus investigaciones sobre la matemática en la biología. Los años venideros fueron el gran fermento de su erudicción como matemático, con cada problema él emprendió la unificación, la generalidad de método y, al final, la simplicidad. Ya en 1950 en el ápice de su trabajo él con eficacia clasificó los algoritmos para solucionar ecuaciones lineales, mostrando que en muchos casos esencialmente el mismo algoritmo había sido presentado en una variedad grande y diferente en los cálculos numéricos en las matrices. Por su impacto e influencia sobre la informática en general y en particular para sus contribuciones a los métodos y técnicas para obtener soluciones numéricas con problemas muy extensos fue condecorado en 1969 por la Computer Society de los EE.UU. Sus últimos años los dedicó a dar conferencias y clases en diferentes universidades de América y Europa.

Kenneth Iverson.

Kenneth Iverson (Nació el 17 de diciembre de 1920 en Alberta y falleció el 19 de octubre de 2004 en Toronto) Creció en una granja de Alberta (Canadá) y como muchos niños de granja él tuvo que dejar los estudios para trabajar. Participó en las Fuerzas Aéreas Reales canadienses durante la Segunda Guerra Mundial, luego de ello ingresó a la Universidad. Fue Profesor adjunto de Matemáticas Aplicadas 1955-1960 en Harvard, allí desarrolló una nueva notación para operaciones sobre series numéricas y la IBM creó a un intérprete para ejecutar expresiones en la notación de Iverson. Esta empresa lo contrató y en 1962 publicó una descripción de su notación en un Lenguaje de programación (APL). Esta lengua desafía la sintaxis convencional algebraica, pero es compacta, simple y fácil para aprender. En 1970 escribió libros sobre lenguajes de programación y matemáticas. Se jubiló en IBM con todos los honores y se retiró a Toronto (Canadá).

William Kahan.

William Velvel Kahan (nació el 5 de junio de 1933 en Toronto, Canadá). Eminente científico de las computadoras y las matemáticas, estudió en la Universidad de Toronto (Canadá). Su contribución ha sido el análisis numérico, en el estudio de los métodos exactos y eficientes de solucionar problemas numéricos sobre un ordenador con la precisión finita, un campo sumamente importante en la física y la ingeniería. En 1989 obtuvo el premio Alan Turing por incorporar un algoritmo para reducir al mínimo el error introducido cuando una adición de una secuencia y en la coma flotante de la precisión finita numerica (el IEEE 754 Standard for Binary Floating-Point Arithmetic). Hoy sigue trabajando en la Unioversidad de Berkeley comno profesor de Matemática electrónica y ciencia informática.

Donald Knuth.

Donald Ervin Knuth, (nacido el 10 de enero de 1938 en Milwaukee, Wisconsin) es uno de los más reconocidos expertos en ciencias de la computación y Profesor Emérito de la Universidad de Stanford.

Donald Knuth.

Se le conoce principalmente como el autor de la obra The Art of Computer Programming, una de las más respetadas referencias en el campo de las ciencias de la computación. Prácticamente creó el campo del análisis de algoritmos e hizo muchos aportes seminales en varias ramas teóricas de las ciencias de la computación. Es el creador del sistema tipográfico TEX y del sistema de diseño Metafont, y fue un pionero en el estilo de programación conocido como programación literaria.

Knuth es un programador conocido por su humor geek: ofrecía una recompensa de $2.56 a quien encontrara errores conceptuales o tipográficos en sus libros porque "256 centavos son 1 dólar hexadecimal", y por otro lado ofrecía $3.16 por errores en 3:16 Bible Texts Illuminated. Numeró las distintas versiones de TEX de manera que se aproximaban a pi (3, 3.1, 3.14, ...), al igual que los números de versión de Metafont se iban aproximando a e. Su cita más célebre, al enviarle sus comentarios a un colega autor de un algoritmo, es: "Ten cuidado con los bugs del código anterior; sólo he demostrado que es correcto, no lo he probado".

Knuth es el autor de 3:16 Bible Texts Illuminated (1991, ISBN 0895792524), libro en el que intenta examinar la Biblia por un proceso de "muestreo estratificado aleatorio", es decir un análisis del capítulo 3, versículo 16 de cada libro. Cada versículo se acompaña de un renderizado en arte caligráfico, contribuído por un grupo de calígrafos capitaneados por Hermann Zapf.

Está casado con Jill Knuth, que publicó un libro sobre liturgia. Tienen dos hijos.

Ada Lovelace

Ada King, Condesa de Lovelace (1838).

Ada Augusta Byron King (10 de diciembre de 1815 - 27 de noviembre de 1852) fue la primera programadora en la historia de las computadoras.

Ada Augusta nació en Inglaterra, única hija legítima del poeta inglés Lord Byron y de Annabella Milbanke Byron. Sus padres se separaron legalmente cuando ella tenía dos meses de edad. Su padre abandonó definitivamente Gran Bretaña y su hija nunca llegó a conocerlo en persona.

El 8 de julio de 1835 se casó con William King, octavo barón de King, nombrado más tarde conde de Lovelace. Su nombre de casada pasó a ser desde entonces lady Ada Augusta Byron King, condesa de Lovelace, nombre del cual nace su denominación moderna de (lady) Ada Lovelace.

Siguió estudios particulares de matemáticas y ciencias, siendo uno de sus tutores Augustus De Morgan, primer profesor de matemáticas de la Universidad de Londres. Autodidacta, desde joven trabajó con Charles Babbage a quien se le considera como el padre de las computadoras, gracias a que su «máquina analítica» funciona con el mismo principio que las computadoras actuales.

Ada Augusta Byron King.

Desarrolló instrucciones para hacer cálculos en una versión temprana del computador. Su relación con Charles Babbage, el hombre que inventó la primera computadora, comenzó cuando ella visitaba su taller a temprana edad. Babbage estaba muy impresionado con la manera en que ella entendía su computador para el que escribió un "plan" describiendo los pasos que permitirían calcular los valores de los números de Bernoulli. Suyos son, además, conceptos tan familiares en un lenguaje de programación como un conjunto de instrucciones que permiten que otras se repitan en un bucle o subrutina.

Posteriormente, él pasó a ser su tutor y más tarde trabajaron juntos. Publicó en 1843 una serie de influyentes notas sobre la computadora de Babbage, su «máquina analítica», que nunca llegó a construirse (aunque firmó con sus iniciales A.A.L. por miedo a ser censurada por ser mujer). Ada Byron se llamó a sí misma una analista, un concepto realmente moderno para la época.

En sus notas, Ada Augusta dice que la «máquina analítica» sólo podía dar información disponible que ya era conocida: vio claramente que no podía originar conocimiento. Su trabajo fue olvidado por muchos años, atribuyéndole exclusivamente un papel de transcriptora de las notas de Babbage. Este mismo caracterizó su aportacion al llamarla su intérprete y recientes investigaciones muestran la originalidad de su punto de vista sobre las instrucciones necesarias para el funcionamiento de la «máquina analítica». En este momento se reconoce a Ada Byron como la primera persona en describir un lenguaje de programación de carácter general interpretando las ideas de Babbage, pero reconociéndosele la plena autoría y originalidad de sus aportaciones.

Siendo muchas las mujeres que han realizado grandes aportaciones a la informática, sólo Ada Lovelace cuenta con un lenguaje de programación que lleve su nombre: en 1979 el Departamento de Defensa de los Estados Unidos creó un lenguaje de programación basado en Pascal en honor de Ada Byron llamado lenguaje de programación Ada.

Ada Byron fue una mujer muy adelantada a su época que lamentablemente murió de cancer a la temprana edad de 37 años.

John Von Neumann.

John Von Neumann (Neumann János) (28 de diciembre de 1903 - 8 de febrero de 1957) fue un matemático húngaro-estadounidense que realizó contribuciones importantes en física cuántica, teoría de conjuntos, informática, economía y en casi todos los campos de las matemáticas. Recibió su doctorado en matemáticas de la Universidad de Budapest a los 23 años.

John Von Neumann

Fue una de las cuatro personas seleccionadas para la primera facultad del Institute for Advanced Study (Instituto para Estudios Avanzados). Trabajó en el Proyecto Manhattan.

Es el padre del la teoría de juegos y publicó el clásico libro Theory of games and economic behavior ('Teoría de juegos y comportamiento económico') junto a Oskar Morgenstern en 1944. También concibió el concepto de "MAD" (Mutually Assured Destruction o 'destrucción mutua asegurada'), concepto que dominó la estrategia nuclear estadounidense durante los tiempos de posguerra.

Trabajó con Eckert y Mauchly en la Universidad de Pennsylvania, publicó un artículo acerca del almacenamiento de programas. El concepto de programa almacenado permitió la lectura de un programa dentro de la memoria de la computadora, y después la ejecución de las instrucciones del mismo sin tener que volverlas a escribir. La primera computadora en usar el citado concepto fue la llamada EDVAC (Eletronic Discrete-Variable Automatic Computer, es decir 'computadora automática electrónica de variable discreta'), desarrollada por Von Neumann, Eckert y Mauchly.

Los programas almacenados dieron a las computadoras flexibilidad y confiabilidad, haciéndolas más rápidas y menos sujetas a errores que los programas mecánicos.

Otra de sus inquietudes fue la capacidad de las máquinas de autorreplicarse, lo que le llevó al concepto de lo que ahora llamamos máquinas de Von Neumann.

Claude Shannon.

Claude Elwood Shannon (30 de abril de 1916 (Michigan) - 24 de febrero de 2001) recordado como "el padre de la teoría de la información".

Los primeros años de su vida los pasó en Gaylord, donde se graduó de la secundaria en 1932. Desde joven, Shannon demostró una inclinación hacia las cosas mecánicas. Resaltaba respecto a sus compañeros en las asignaturas de ciencias. Su héroe de la niñez era Edison, a quien luego se acercó bastante en sus investigaciones.

En 1932 ingresó en la Universidad de Michigan, siguiendo a su hermana Catherine, Doctora en matemáticas. En 1936 obtuvo los títulos de ingeniero eléctrico y matemático. Su interés por las matemáticas y la ingeniería continuó durante toda su vida.

En 1936 aceptó la posición de asistente de investigación en el departamento de ingeniería eléctrica en el Instituto de Tecnología de Massachusetts (MIT). Su situación le permitió continuar estudiando mientras trabajaba por horas para el departamento, obteniendo como resultado la calculadora más avanzada de esa era.

En ese momento surgió su interés hacia los circuitos de relevadores complejos, sumado a su gusto por la lógica y el álgebra boleana. Estos nuevos intereses pudo desarrollarlos durante el verano de 1937, que pasó en los laboratorios Bell en la ciudad de Nueva York.

En su tesis doctoral en el MIT., demostró cómo el álgebra boleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas. En 1940 le fue concedido el Premio a ingenieros americanos del Instituto Americano Alfred Nobel de Estados Unidos, una concesión dada cada año a una persona de no más de treinta años. Un cuarto de siglo más tarde H. H. Goldstine, en su libro "Las computadoras desde Pascal hasta Von Neumann", citó su tésis como una de las más importantes de la historia que ayudó a cambiar el diseño de circuitos digitales.

Durante el verano de 1938 realizó trabajos de investigación en el MIT y le fue concedida la beca Bolles cuando trabajaba como ayudante de enseñanza mientras realizaba un doctorado en matemáticas.

En 1940 estudió un master en ingeniería eléctrica y se doctoró en filosofía matemática.

Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea como Harry Nyquist, Brattain, Bardeen y Shockley, inventores del transistor; George Stibitz, quien construyó computadoras basadas en relevadores y muchos otros más.

Durante este período Shannon trabajó en muchas áreas, siendo lo más notable todo lo referente a la teoría de la información, un desarrollo que fue publicado en 1948 bajo el nombre de "Una Teoría Matemática de la Comunicación". En este trabajo se demostró que todas las fuentes de información (telégrafo eléctrico, teléfono, radio, la gente que habla, las cámaras de televisión, etc., ... ) se pueden medir y que los canales de comunicación tienen una unidad de medida similar. Mostró también que la información se puede transmitir sobre un canal si, y solamente si, la magnitud de la fuente no excede la capacidad de transmisión del canal que la conduce, y sentó las bases para la corrección de errores, supresión de ruidos y redundancia.

En el área de las computadoras y de la inteligencia artificial, publicó en 1950 un trabajo que describía la programación de una computadora para jugar al ajedrez, convirtiéndose en la base de posteriores desarrollos.

A lo largo de su vida recibió numerosas condecoraciones y reconocimientos de universidades e instituciones de todo el mundo.

Claude Elwood Shannon falleció el 24 de febrero del año 2001, a la edad de 84 años, después de una larga lucha en contra la enfermedad de Alzheimer.

Richard Stallman.

Richard Matthew Stallman (a quien se hace referencia comúnmente por sus iniciales RMS) es una figura central del movimiento del software libre. Sus mayores logros como programador incluyen el editor de texto Emacs, el compilador GCC, y el depurador GDB, bajo la rúbrica del Proyecto GNU. Pero su influencia es mayor por el establecimiento de un marco de referencia moral, político y legal para el movimiento del software libre, como una alternativa al desarrollo y distribución de software privativo. Es también inventor del concepto de Copyleft (aunque no fue él quien le puso el nombre), un método para licenciar software de tal forma que éste permanezca siempre libre y su uso y modificación siempre reviertan en la comunidad.

Richard Matthew Stallman.

Biografía.

Stallman nació el 16 de marzo de 1953 en Manhattan, Nueva York.

En 1971, siendo estudiante de primer año de Física en la Universidad de Harvard, Stallman se convirtió en un hacker del laboratorio de inteligencia artificial del MIT. En los años 80, la cultura hacker que constituía la vida de Stallman empezó a disolverse bajo la presión de la comercialización en la industria del software. En particular, otros hackers del laboratorio de IA fundaron la compañía Symbolics, la cual intentaba activamente reemplazar el software libre del Laboratorio con su propio software privativo. Durante dos años, desde 1983 a 1985, Stallman por sí solo duplicó los esfuerzos de los programadores de Symbolics para impedir que adquirieran un monopolio sobre los ordenadores del laboratorio. Por ese entonces, sin embargo, él era el último de su generación de hackers en el laboratorio.

Se le pidió que firmara un acuerdo de no divulgación (non-disclosure agreement) y llevara a cabo otras acciones que él consideró traiciones a sus principios. En 1986, Stallman publicó el Manifiesto GNU, en el cual declaraba sus intenciones y motivaciones para crear una alternativa libre al sistema operativo Unix, el cual nombró GNU (GNU No es Unix), que también quiere decir ñu en inglés (de ahí esos dibujos-logotipos). Poco tiempo después se incorporó a la organización no lucrativa Free Software Foundation para coordinar el esfuerzo. Inventó el concepto de copyleft el cual se utilizó en la Licencia Pública General GNU (conocida generalmente como la "GPL") en 1989. La mayoría del sistema GNU, excepto el núcleo, se completó aproximadamente al mismo tiempo. En 1991, Linus Torvalds liberó el núcleo Linux bajo los términos de la GPL, completando un sistema GNU completo y operativo, el sistema operativo GNU/Linux.

Las motivaciones políticas y morales de Richard Stallman le han convertido en una figura controvertida. Muchos programadores de influencia que se encuentran de acuerdo con el concepto de compartir el código, difieren con las posturas morales, filosofía personal o el lenguaje que utiliza Stallman para describir sus posiciones. Un resultado de estas disputas condujo al establecimiento de una alternativa al movimiento del software libre, el movimiento de código abierto.

Stallman ha recibido numerosos premios y reconocimientos por su trabajo, entre ellos una membresía en la MacArthur Foundation en 1990, el Grace Hopper Award de la Association for Computing Machinery en 1991 por su trabajo en el editor Emacs original, un Doctorado Honoris Causa del Royal Institute of Technology de Suecia en 1996, el Pioneer award de la Electronic Frontier Foundation en 1998, el Yuki Rubinski memorial award en 1999, y el Takeda award en 2001. El 2004 recibió un Doctorado Honoris Causa otorgado por la Universidad de Salta (Argentina).

Papel en el movimiento GNU.

En la actualidad, Stallman se encarga de difundir la ideología GNU en todo el mundo mediante charlas y conferencias. Esto hace que algunos le consideren como un profeta o gurú.

Curiosidades.

Su aparentemente descuidada imagen y sus manías extravagantes (no utiliza teléfono móvil, siempre va acompañado de su ordenador portátil, lleva su propio colchón vaya donde vaya, etc) le han hecho ser blanco de numerosos chistes y bromas, llegando incluso a aparecer en tiras cómicas.

Durante sus charlas aparece con una segunda personalidad que corresponde a San iGNUcio de emacs.

Andrew S. Tanenbaum.

Andrew S. Tanenbaum (1944) es el director del Departamento de Sistemas de la Universidad de Vrije, Amsterdam (Países Bajos). Es profesor de Arquitectura de ordenadores y sistemas operativos. Se licenció en el MIT, doctorándose en la Universidad de California, Berkeley (UCB).

Es conocido por sus libros de informática, especialmente:

·      Redes de computadoras.

·      Sistemas operativos: diseño e implementación.

·      Sistemas operativos modernos.

·      Organización de computadoras.

Escribió Minix, una réplica de UNIX gratuita, que fue la inspiración de Linux. En 1992 participó en Usenet en un encendido debate con Linus Torvalds, el creador de Linux, sobre los méritos de la idea de Linus de utilizar un núcleo monolítico en vez de los diseños basados en un micronúcleo que Tanenbaum creía que serían la base de los sistemas operativos futuros.

También es el autor del sistema operativo distribuido Amoeba.

 

Linus Torvalds.

 

Linus Torvalds.

Linus Torvalds es el creador del kernel (núcleo) del sistema operativo GNU/Linux, a menudo llamado simplemente Linux.

Nacido en Helsinki, Finlandia, el 28 de diciembre de 1969. Sus padres tomaron su nombre de Linus Pauling.

Comenzó sus andanzas informáticas a la edad de 11 años. Su abuelo, un matemático y estadístico de la Universidad compró uno de los primeros microordenadores Commodore en 1980 y le pidió ayuda para usarlo.

En 1988 Linus es admitido en la Universidad de Helsinki. Ese mismo año Andy Tannenbaum saca a la luz el S.O. Minix. Dos años después, en 1990, Torvalds empieza a aprender el lenguaje de programación C en su universidad.

A finales de los 80 tomó contacto con los computadores IBM/PC compatibles y en 1991 adquirió un 80386. A la edad de 21 años, con 5 años de experiencia programando (uno en C), ya conocía lo bastante del sistema operativo (S.O.) Minix como para tomarle algunas ideas prestadas y empezar un proyecto personal. Basándose en Design of the Unix Operating System, publicado por Maurice J. Bach en 1986, y modificando gradualmente el núcleo del Minix, crearía una adaptación del potente S.O. que ejecutara el software creado por el proyecto GNU, pero sobre una arquitectura IBM/PC.

Linus Torvalds.

Este proyecto personal desembocó en octubre de 1991 con el anuncio de la primera versión de Linux capaz de ejecutar BASH (Bourne Again Shell) y GCC (GNU Compiler Collection). Poco tiempo después, en enero de 1992 se adoptó la GPL (Licencia Pública General) para Linux. Ésta añade libertades de uso a Linux totalmente opuestas a las del software no libre, permitiendo su modificación, redistribución, copia y uso ilimitado. Este modelo de licenciamiento facilita lo que es conocido como el modelo de desarrollo de bazar, que ha dado estabilidad y funcionalidad sin precedentes a éste.

En 1997 Linus Torvalds recibe los premios 1997 Nokia Foundation Award y Lifetime Achievement Award at Uniforum Pictures. Ese mismo año finaliza los estudios superiores (1988 - 1997) tras 10 años como estudiante e investigador en la Universidad de Helsinki, coordinando el desarrollo del núcleo del S.O. desde 1992.

Ahora Torvalds trabaja en Silicon Valley (EE.UU.). Solo el 2% de Linux fue creado por él en los 90, pero en su persona sigue descansando la paternidad de este núcleo de sistema operativo.

Torvalds posee la marca registrada "Linux" y supervisa el uso (o abuso) de la marca a través de la organización sin fines de lucro Linux International.

Alan Mathison Turing

Estatua de Alan M. Turing.

Alan Mathison Turing (23 de junio de 1912 - 7 de junio de 1954). Fue matemático, científico de la computación, criptógrafo y filósofo. Se le considera uno de los padres de la Ingeniería informática siendo el precursor de la Ciencia de la computación moderna. Proporcionó una influyente formalización de los conceptos de algoritmo y computación: la máquina de Turing. Formuló su propia versión de la hoy ampliamente aceptada Tesis de Church-Turing, la cual postula que cualquier modelo computacional existente tiene las mismas capacidades algorítmicas, o un subconjunto, de las que tiene una máquina de Turing. Durante la Segunda Guerra Mundial, trabajó en romper los códigos nazis, particularmente los de la máquina Enigma; durante un tiempo fue el director de la sección Naval Enigma del Bletchley Park. Tras la guerra diseñó uno de los primeros computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la Universidad de Manchester. Entre otras muchas cosas, también contribuyó de forma particular e incluso provocativa a la cuestión de si las máquinas pueden pensar.

Infancia y juventud.

Turing fue concebido en 1911 en Chatrapur, India. Su padre Julius Mathison Turing era miembro del Cuerpo de funcionarios británicos en la India. Julius y su esposa Ethel querían que su hijo Alan naciera en el Reino Unido y regresaron a Paddington, donde finalmente nació. Pero su padre aún debía cubrir su puesto de funcionario en la India, por lo que durante la infancia de Turing sus padres viajaban constantemente entre el Reino Unido y la India, viéndose obligados a dejar a sus dos hijos con amigos ingleses en vez de poner en peligro su salud llevándolos a la colonia británica. Turing dio muestras ya desde una edad muy temprana del ingenio que más tarde mostraría prominentemente. Se cuenta que aprendió a leer por sí solo en tres semanas y que desde el principió mostró un gran interés por los números y los rompecabezas. Un buen libro en español sobre su vida y obra es la escrita por R. Lahoz-Beltra bajo el título "Turing. Del ordenador a la Inteligencia Artificial. (2005). Nivola".

Sus padres lo inscribieron en el colegio St. Michael cuando tenía seis años. Su profesora se percató enseguida de la genialidad de Turing, tal y como les ocurrió a sus posteriores profesores. En 1926, con catorce años, ingresó en el internado de Sherborne en Dorset. Su primer día de clase coincidió con una huelga general en Inglaterra, pero era tan grande la determinación de Turing por asistir a su primer día de clase que recorrió en solitario con su bicicleta las más de 60 millas que separaban Southhampton de su escuela, pasando la noche en una posada — una hazaña que fue recogida en la prensa local.

La inclinación natural de Turing hacia las matemáticas y la ciencia no le forjó el respeto de sus profesores de Sherborne, cuyo concepto de educación hacía más énfasis en los clásicos. Pero a pesar de ello, Turing continuó mostrando una singular habilidad para los estudios que realmente le gustaban, llegando a resolver problemas muy avanzados (para su edad) en 1927 sin ni siquiera haber estudiado cálculo elemental.

En 1928, con dieciséis años, Turing descubrió los trabajos de Albert Einstein y no sólo pudo comprenderlos sino que además infirió las críticas de Einstein a las Leyes de Newton de la lectura de un texto en el que no estaban explícitas. Durante su edad escolar Turing fue un joven cuyo optimismo y ambiciones se vieron acrecentados debido en gran parte a su intensa unión con su amigo Christopher Morcom, cuya muerte, aun joven, afectaría a Turing profundamente.

La Universidad y sus estudios sobre computabilidad.

Debido a su falta de voluntad para esforzarse con la misma intensidad en el estudio de los clásicos que en el de la ciencia y las matemáticas, Turing suspendió sus exámenes finales varias veces y tuvo que ingresar en la escuela universitaria que eligió en segundo lugar, King's College, Universidad de Cambridge, en vez de en la que era su primera elección, Trinity. Recibió las enseñanzas de Godfrey Harold Hardy, un respetado matemático que ocupó la cátedra Sadleirian en Cambridge y que posteriormente fue responsable de un centro de estudios e investigaciones matemáticas de 1931 a 1934. En 1935 Turing fue nombrado profesor del King's College.

En su memorable estudio "Los números computables, con una aplicación al Entscheidungsproblem" (publicado en 1936), Turing reformuló los resultados obtenidos por Kurt Gödel en 1931 sobre los límites de la demostrabilidad y la computación, sustituyendo al lenguaje formal universal descrito por Gödel por lo que hoy se conoce como Máquina de Turing, unos dispositivos formales y simples. Demostró que dicha máquina era capaz de implementar cualquier problema matemático que pudiera representarse mediante un algoritmo. Las máquinas de Turing siguen siendo el objeto central de estudio en la teoría de la computación. Llegó a probar que no había ninguna solución para el Entscheidungsproblem, demostrando primero que el problema de la parada para las máquinas de Turing es irresoluble: no es posible decidir algorítmicamente si una máquina de Turing dada llegará a pararse o no. Aunque su demostración se publicó después de la demostración equivalente de Alonzo Church respecto a su cálculo lambda, el estudio de Turing es mucho más accesible e intuitivo. También fue pionero con su concepto de "Máquina Universal (de Turing)", con la tesis de que dicha máquina podría realizar las mismas tareas que cualquier otro tipo de máquina. Su estudio también introduce el concepto de números definibles.

La mayor parte de 1937 y 1938 la pasó en la Universidad de Princeton, estudiando bajo la dirección de Alonzo Church. En 1938 obtuvo el Doctorado en Princeton; en su discurso introdujo el concepto de hipercomputación, en el que ampliaba las máquinas de Turing con las llamadas máquinas oráculo, las cuales permitían el estudio de los problemas para los que no existe una solución algorítmica.

Tras su regreso a Cambridge en 1939, asistió a las conferencias de Ludwig Wittgenstein sobre las bases de las matemáticas. Ambos discutieron y mantuvieron un vehemente desencuentro, ya que Turing defendía el formalismo matemático y Wittgenstein criticaba que las matemáticas estaban sobrevaloradas y no descubrían ninguna verdad absoluta.

Un buen libro en español sobre su biografia y obra es el escrito por Rafael Lahoz-Beltrá en 2005 titulado "Turing. Del primer ordenador a la inteligencia artificial" Nivola.

Análisis criptográfico (ruptura de códigos).

Réplica de una máquina bombe.

Durante la Segunda Guerra Mundial fue uno de los principales artífices de los trabajos del Bletchley Park para descifrar los códigos nazis. Sus perspicaces observaciones matemáticas contribuyeron a romper los códigos de la máquina Enigma y de los codificadores de teletipos FISH (máquinas de teletipos codificados que fabricaron conjuntamente Lorenz Electric y Siemens&Halske). Sus estudios del sistema Fish ayudarían al desarrollo posterior de la primera computadora programable electrónica digital llamada Colossus, la cual fue diseñada por Max Newman y su equipo, y construida en la Estación de Investigaciones Postales de Dollis Hill por un equipo dirigido por Thomas Flowers en 1943. Dicha computadora se utilizó para descifrar los códigos Fish (en concreto las transmisiones de la máquina Lorenz).

Para romper los códigos de la máquina Enigma, Turing diseñó la bombe, una máquina electromecánica — llamada así en reconocimiento de la diseñada por los polacos bomba kryptologiczna — que se utilizaba para eliminar una gran cantidad de llaves enigma candidatas. Para cada combinación posible se implementaba eléctricamente una cadena de deducciones lógicas. Era posible detectar cuándo ocurría una contradicción y desechar la combinación. La bombe de Turing, con una mejora añadida que sugirió el matemático Gordon Welchman, era la herramienta principal que usaban los criptógrafos aliados para leer las transmisiones Enigma.

Los trabajos de ruptura de códigos de Turing han sido secretos hasta los años 1970; ni siquiera sus amigos más íntimos llegaron a tener constancia.

Estudios sobre las primeras computadoras; la prueba de Turing.

De 1945 a 1948 trabajó en el Laboratorio Nacional de Física en el diseño del ACE (Máquina de Computación Automática). En 1949 fue nombrado director delegado del laboratorio de computación de la Universidad de Manchester y trabajó en el software de una de las primeras computadoras reales — la Manchester Mark I. Durante esta etapa también realizó estudios más abstractos y en su artículo "Máquinas de computación e inteligencia" (octubre de 1950) Turing trató el problema de la inteligencia artificial y propuso un experimento que hoy se conoce como la prueba de Turing, con la intención de definir una prueba estándar por el que una máquina podría catalogarse como "sensible" o "sentiente".

En 1952 Turing escribió un programa de ajedrez. A falta de una computadora lo suficientemente potente como para ejecutarlo, él simulaba el funcionamiento de la computadora, tardando más de hora y media en efectuar un movimiento. Una de las partidas llegó a registrarse; el programa perdió frente a un amigo de Turing.

Trabajó junto a Norbert Weiner en el desarrollo de la cibernética. Esta rama de estudios se genera a partir de la demanda de sistemas de control que exige el progresivo desarrollo de las técnicas de producción a partir del siglo XX. La cibernética pretende establecer un sistema de comunicación entre el hombre y la máquina como premisa fundamental para administrar los sistemas de control. Sus estudios profundizaron en esta relación estableciendo el concepto de interfaz y cuestionando los límites de simulación del razonamiento humano.

Estudios sobre la formación de patrones y la biología matemática.

Turing trabajó desde 1952 hasta que falleció en 1954 en la biología matemática, concretamente en la morfogénesis. Publicó un trabajo sobre esta materia titulado "Fundamentos Químicos de la Morfogénesis" en 1952. Su principal interés era comprender la filotaxis de Fibonacci, es decir, la existencia de los números de Fibonacci en las estructuras vegetales. Utilizó ecuaciones de reacción-difusión que actualmente son cruciales en el campo de la formación de patrones. Sus trabajos posteriores no se publicaron hasta 1992 en el libro "Obras Completas de A. M. Turing".

Procesamiento por homosexual y muerte de Turing.

La carrera profesional de Turing se vio truncada cuando lo procesaron por su homosexualidad. En 1952 su amante masculino ayudó a un cómplice a entrar en la casa de Turing para robarle. Turing acudió a la policía a denunciar el delito. Como resultado de la investigación policial, Turing fue acusado de mantener una relación sexual con un varón de 19 años y se le imputaron los cargos de "indecencia grave y perversión sexual". Convencido de que no tenía de qué disculparse, no se defendió de los cargos y fue condenado. Según su ampliamente difundido proceso judicial, se le dio la opción de ir a prisión o de someterse a un tratamiento hormonal de reducción de la libido. Finalmente escogió las inyecciones de estrógenos, que duraron un año y le produjeron importantes alteraciones físicas, como la aparición de pechos, y que además le convirtieron en impotente. Dos años después del juicio, en 1954, murió por envenenamiento con cianuro, aparentemente tras comerse una manzana envenenada que no llegó a ingerir completamente. La mayoría piensa que su muerte fue intencionada y se la consideró oficialmente como un suicidio. A pesar de que su madre intentó negar la causa de su muerte, atribuyéndola rotundamente a una ingestión accidental provocada por la falta de precauciones de Turing en el almacenamiento de sustancias químicas de laboratorio, su vida terminó amargamente y envuelta en una nube de misterio.

Reconocimiento.

Estatua a la memoria de Alan Turing.

 

Placa conmemorativa en la antigua casa de Turing.

El 23 de junio de 2001 se inauguró una estatua de Turing en Manchester. Se encuentra en Sackville Park, entre el edificio de la Universidad de Manchester en la calle de Whitworth y la gay village de la calle del Canal.

En el 50º aniversario de su muerte se descubrió una placa conmemorativa en su antiguo domicilio, Hollymeade, en Wilmslow el 7 de junio de 2004.

La Association for Computing Machinery otorga anualmente el Premio Turing a personas destacadas por sus contribuciones técnicas al mundo de la computación. Este premio está ampliamente considerado como el equivalente del Premio Nobel en el mundo de la computación.

El Instituto Alan Turing fue inaugurado por el UMIST (Instituto de Ciencia y Tecnología de la Universidad de Manchester) y la Universidad de Manchester en el verano de 2004.

El 5 de junio de 2004 se celebró un acontecimiento conmemorativo de la vida y la obra de Turing en la Universidad de Manchester, organizado por el "British Logic Colloquium" y la "British Society for the History of Mathematics".

El 28 de octubre de 2004 se descubrió una estatua de bronce de Alan Turing esculpida por John W. Mills en la Universidad de Surrey. La estatua conmemora el 50º aniversario de la muerte de Turing. Representa a Turing transportando sus libros a través del campus.

Turing en la Literatura.

·      Turing es uno de los personajes de la sección de la Segunda Guerra Mundial del Criptonomicón de Neal Stephenson.

·      La obra de teatro Breaking the Code de Hugh Whitemore trata sobre la vida y la muerte de Turing.

Inteligencia artificial.

 

Se define la inteligencia artificial (IA) como aquella inteligencia exhibida por artefactos creados por humanos (es decir, artificial). A menudo se aplica hipotéticamente a los computadores. El nombre también se usa para referirse al campo de la investigación científica que intenta acercarse a la creación de tales sistemas.

Debido a que la inteligencia artificial tuvo muchos padres no hay un consenso para definir ese concepto, pero podemos decir que la inteligencia artificial se encarga de modelar la inteligencia humana en sistemas computacionales.

Puede decirse que la inteligencia artificial es una de las áreas más fascinantes y con más retos de las ciencias de la computación, en su área de ciencias cognoscitivas. Nació como mero estudio filosófico y razonístico de la inteligencia humana, mezclada con la inquietud del hombre de imitar la naturaleza circundante (como volar y nadar), hasta inclusive querer imitarse a sí mismo. Sencillamente, la Inteligencia Artificial busca el imitar la inteligencia humana. Obviamente no lo ha logrado todavía, al menos no completamente.

Existen cinco puntos de vista principales sobre estos sistemas:

·      Los que piensan como humanos.

·      Los que actúan como humanos.

·      Los que piensan racionalmente.

·      Los que actúan racionalmente.

·      Los que sienten como humanos.

Historia de la inteligencia artificial.

La historia de la Inteligencia Artificial ha pasado por diversas situaciones:

·      El término fue inventado en 1956, en un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.

·      En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos, pero que no alcanzó muchos de sus objetivos, por lo que este campo ha sufrido una nueva detención en los años noventa.

·      En la actualidad estamos tan lejos de cumplir la famosa prueba de Turing como cuando se formuló: Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas.

·      Como anécdota, muchos de los investigadores sobre IA sostienen que "la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro".

Los juegos matematicos antiguos, como el de la torres de hanoi (aprox 3000ac), demuestran el interes por la búsqueda de un bucle resolutor, una IA capaz de ganar en los mínimos movimientos posibles.

En 1903 Lee De Forest inventa el triodo (tambien llamados bulbo o válvula de vacío). Podria decirse que la primera gran maquina inteligente diseñada por el hombre fue el computador ENIAC, compuesto por 18.000 válvulas de vacío, teniendo en cuenta que el concepto de "inteligencia" es un termino subjetivo que depende de la inteligencia y la tecnología que tengamos en esa época. Un indígena del amazonas en el siglo 20 podría calificar de inteligente un tocadiscos, cuando en verdad no lo es tanto.

En 1937, el matemático inglés Alan Mathison Turing (1912-1953) publicó un artículo de bastante repercusión sobre los "Números Calculables", que puede considerarse el origen oficial de la Informática Teórica.

En este artículo, introdujo la Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras digitales. Con ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por lo que a Alan Turing se le considera el padre de la teoría de la computabilidad.

También se le considera el padre de la Inteligencia Artificial, por su famosa Prueba de Turing, que permitiría comprobar si un programa de ordenador puede ser tan inteligente como un ser humano.

En 1951 William Shockley inventa el transistor de union. El invento del transistor hizo posible una nueva generación de computadoras mucho más rápidas y pequeñas.

En 1956, se acuñó el término "inteligencia artificial" en Dartmouth durante una conferencia convocada por McCarthy, a la cual asistieron, entre otros, Minsky, Newell y Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.

En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos, pero que no alcanzó muchos de sus objetivos, por lo que este campo ha sufrido una nueva detención en los años noventa.

En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no solo la comunicación) los atributos de un agente inteligente, la IA se ha extendido a muchas áreas que han creado ramas de investigación enormes y diferenciadas. Dichos atributos del agente inteligente son:

1.   Tiene actitudes mentales tales como creencias e intenciones.

2.   Tiene la capacidad de obtener conocimiento, es decir, aprender.

3.   Puede resolver problemas, incluso particionando problemas complejos en otros más simples.

4.   Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o contradictorias.

5.   Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez)

6.   Conoce los límites de su propias habilidades y conocimientos.

7.   Puede distinguir a pesar de las similitud de las situaciones.

8.   Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías.

9.   Puede generalizar.

10.  Puede percibir y modelar el mundo exterior.

11.  Puede entender y utilizar el lenguaje y sus símbolos.

Podemos entonces decir que la IA incluye características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción modelar del mundo. Así, podemos hablar ya no sólo de un objetivo, sino de muchos dependiendo del punto de vista o utilidad que pueda encontrarse a la IA.

Muchos de los investigadores sobre IA sostienen que "la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro".

El futuro de la Inteligencia artificial.

Antes de nada decir que en principio parece que se pueda estar filosofando y quizá si, pero con una base científica bastante grande.

Aunque parezca absurdo hay muchos eruditos en el campo de la IA que ven el futuro de ésta centrado sobre todo en los chatterbots. Parece absurdo, pero sólo tenemos que pararnos a pensar unos segundos y darnos cuenta de que lo que define a un cerebro inteligente es aquel que puede comunicarse, ¡hablar!, no importa el idioma, la cuestión es que si es capaz de comunicarse, es capaz de pensar ya que pensamos y razonamos en nuestro idioma y tenemos conciencia de que somos o lo que somos a través del pensamiento y razonamiento y aunque parezca absurdo nuestra conciencia se va forjando poco a poco de manera simultánea con nuestro idioma, el que vamos aprendiendo según nacemos.

El desarrollo de un auténtico bot que sea capaz de tener un lenguaje, que sea capaz de dialogar, de darnos su punto de vista, de decirnos quien es, de hacernos pensar, reír, de poder mentir, usar sarcasmos, detectar la ironía... sería algo tan fantástico como complejo. Si alguien programase un ente que pudiese pensar en un idioma, hablar en un idioma, dialogar, comunicarse, tener conciencia de sí mismo así como todas las cualidades que comentamos anteriormente... habría creado el primer ¡cerebro 100% basado en IA!

Obviamente esto último es algo arduo complejo, ya que estamos hablando de crear un cerebro, una entidad inteligente y que sea capaz de aprender, evolucionar, pensar, razonar por sí mismo.

No sabemos si será la POO, las redes neuronales, los sistemas expertos, la fusión de estos o los algoritmos matemáticos actuales los que nos darán la clave para crear ese cerebro y no lo sabemos porque el cerebro sigue siendo el gran desconocido para la ciencia. Se puede decir que sólo sabemos “por donde van los tiros” pero no sabemos como funciona realmente. A modo personal pienso que el campo de la IA sigue estando en pañales y aunque el cerebro, nuestra conciencia, nosotros, no seamos más que 100.000 millones de neuronas…, de reglas…, el no saber ni si quiera que somos o como funciona nuestro "yo"...nuestra mente... nuestra conciencia, hace que vea algunas emulaciones de IA como basura (y perdonen por la expresión), dicho de otra forma, es como si estuviésemos dando palos de ciego para ver como podremos crear algo que ni siquiera sabemos bien como es y empezamos a probar con algunas fichas de este enorme puzzle de 100.000 millones piezas del cual creo, apenas tenemos 100… y no sabemos si encajan entre sí...

Con este tema podríamos liarnos muchísimo y no acabar nunca así que como por algún sitio hay que cortar, creo este un buen punto para cambiar de tercio y hablar sobre dos o tres más ideas de lo que puede ser el futuro de esta ciencia. También dejar claro que aunque, como dije antes, creo que “estemos en pañales” o que hay emulaciones que no me parecen del todo buenas, pienso que no es para nada un mal comienzo el que llevamos hasta ahora, sino, todo lo contrario, vamos por el mejor de los caminos.

Otros expertos en la materia y mezclado con lo que se comentó anteriormente piensan o creen que antes de poder crear “ese ente”, “ese cerebro”, este debe tener un mundo virtual (vida artificial) con el que poder interactuar y en el que poder moverse intelectualmente y con el que poder actuar y forjar su conciencia de sí mismo, que sepa que no es un humano, que es una máquina, pero que al igual que un niño pueda ir forjando/creando/desarrollando su inteligencia y sobre todo potenciándola. Imaginemos que creamos un ente recién nacido, que pasa 1 año relacionándose con algún tipo de mundo virtual y… al cabo de este año le decimos 100 veces “hola” y en ninguna de estos casos hallamos respuesta alguna… pero quizá cuando le digamos por centésima primera vez “hola” podamos obtener otro “hola” o cualquier otra cosa..., pero simplemente el hecho de recibir una respuesta sería un hito en la historia de la IA.

Otra forma de ver el futuro de esta ciencia es pensar en la fusión de las diferentes corrientes existentes en ella (subsimbólica y simbólica), es decir, sistemas expertos, redes neuronales, vida artificial, para que de una forma u otra se equilibren y se ayuden entre sí. Sería como ver la unión de todos esos pequeños experimentos y ensayos en una sola obra maestra que quizá no sea la definitiva pero seguramente también sería otro buen comienzo.

Texto escrito en 2006.

En los párrafos siguientes se narra una de las ideas de lo que puede ocurrir en un futuro, quizá con un tono un tanto novelístico pero sin caer nunca en tonos de idea descabellada:

Partimos de que el cerebro humano tiene 100.000 millones de neuronas. Un programa de ordenador puede simular unas 10.000 neuronas. Si a la capacidad de proceso de un ordenador la sumamos la de otros 9.999.999 ordenadores, tenemos la capacidad de proceso de 10.000.000 ordenadores.

Multiplicamos 10.000.000 ordenadores por 10.000 neuronas cada uno y da = 100.000 millones de neuronas simuladas. Un cerebro humano será simulado en el futuro gracias a Internet y cualquiera puede programarlo. Una vez que la inteligencia artificial tenga una inteligencia igual o superior a la del hombre, obligatoriamente surgirá un cambio político y social, en el que la IA tiene todas las de ganar si se da cuenta que no necesita a los humanos para colonizar el universo. Suena a ciencia ficción pero actualmente orbitando están los satélites de comunicaciones con sus procesadores 486. En el futuro, la inteligencia artificial auto replicante podría fácilmente hacerse con todas las colonias humanas fuera de la tierra, y la raza humana nunca podrá luchar en el espacio vació en igualdad de condiciones.

El futuro de una inteligencia superior puede ser la investigación de tecnologías como la teleportación, los viajes estelares y cualquier otra tecnología para aumentar "artificialmente" la inteligencia.

Técnicas y campos de la Inteligencia Artificial.

·      Aprendizaje Automático (Machine Learning).

·      Ingeniería del conocimiento (Knowledge Engineering).

·      Lógica difusa (Fuzzy Logic).

·      Redes neuronales artificiales (Artificial Neural Networks).

·      Sistemas reactivos (Reactive Systems).

·      Sistemas multi-agente (Multi-Agent Systems).

·      Sistemas basados en reglas (Rule-Based Systems).

·      Razonamiento basado en casos (Case-Based Reasoning).

·      Sistemas expertos (Expert Systems).

·      Redes Bayesianas (Bayesian Networks).

·      Vida artificial (Artificial Life).

·      Videojuegos (videojuego).

·      Computación evolutiva (Evolutionary Computation).

·      Células Binarias (Binary Cells).

o  Estrategias evolutivas.

o  Algoritmos genéticos (Genetic Algorithms).

·      Técnicas de Representación de Conocimiento.

o  Redes semánticas (Semantic Networks).

o  Frames.

Tecnologías de apoyo.

·      Interfaces de usuario.

·      Visión artificial.

Aplicaciones de la Inteligencia Artificial.

·      Lingüística computacional.

·      Minería de datos (Data Mining).

·      Mundos virtuales.

·      Procesamiento de lenguaje natural (Natural Language Processing).

·      Robótica.

·      Sistemas de apoyo a la decisión.

·      Videojuegos.

Enlaces externos.

·      Inteligencia artificial Noticias- English.

·      Asociacion Española de Inteligencia Artificial.

·      Laboratorio de Inteligencia Artificial (UPM).

·      Laboratorio de Inteligencia Artificial (UDC).

·      Iberobotics - Portal de Robótica en Castellano.

·      Divulgación sobre Inteligencia Artificial (RoboticSpot.com).

·      Sistema de Aprendizaje Experimental (www.ergocortex.com).

·      Aplicación de la Voz y los sistemas Virtuales en Internet (www.mumovoz.com).

·      Programa elaborado con inteligencia artificial.

·      Noticiero.tk Robotica y Biónica.

·      Contenidos diversos y documentacion sobre I.A.

·      IABOT.tk Inteligencia artificial y Robotica.

Prueba de Turing.

Se llama Prueba o Test de Turing al procedimiento desarrollado por Alan Turing para identificar la existencia de inteligencia en una máquina.

Expuesto en 1950 en un artículo (Computing machinery and intelligence) para la revista Mind, sigue siendo hoy día una de las cabezas de lanza de los defensores de la Inteligencia Artificial.

Está fundamentado en la hipótesis positivista de que, si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente.

La prueba consiste en un desafío. La máquina ha de hacerse pasar por humana en una conversación con un hombre a través de una comunicación de texto estilo chat. Al sujeto no se le avisa si está hablando con una máquina o una persona. Si el sujeto es incapaz de determinar si la otra parte de la comunicación es humana o máquina, entonces se considera que la máquina ha alcanzado un determinado nivel de madurez: es inteligente. Todavía ninguna maquina puede pasar este examen en una experiencia con método científico.

Existe una versión modificada, propuesta por John Searle y popularizada por Roger Penrose: la sala china. En esencia es igual, pero la ejecución del algoritmo la realizan personas encerradas en una habitación, se requiere que las personas de la habitación no conozcan el idioma en que se realiza la conversación.

Pese a la brillantez de Penrose, esta modificación no aporta nada al problema, puesto que si los operadores consiguen comprender la conversación, lo harian gracias a su propia inteligencia, por otra parte, pese a lo aparentemente absurdo de la proposición, la sala podría pasar la prueba de turing sin que los operadores hubieran comprendido nada de la conversación.

Una de las aplicaciones de la prueba de Turing es el control de spam. Dado el gran volumen de correos eléctronicos enviados, el spam es, por lo general, enviado automáticamente por una máquina. Así la prueba de Turing puede usarse para distinguir si el correo electrónico fue enviado por un remitente humano o por una máquina (por ejemplo por la prueba Captcha).

Máquina de Turing.

La máquina de Turing es un modelo computacional introducido por Alan Turing en el trabajo “On computable numbers, with an application to the Entscheidungsproblem”, publicado por la Sociedad Matemática de Londres, en el cual se estudiaba la cuestión planteada por David Hilbert sobre si las matemáticas son decidibles, es decir, si hay un método definido que pueda aplicarse a cualquier sentencia matemática y que nos diga si esa sentencia es cierta o no. Turing construyó un modelo formal de computador, la máquina de Turing, y demostró que existían problemas que una máquina no podía resolver. La máquina de Turing es un modelo matemático abstracto que formaliza el concepto de algoritmo.

Diagrama artístico de una máquina de Turing.

La máquina de Turing consta de un cabezal lector/escritor y una cinta infinita en la que el cabezal lee el contenido, borra el contenido anterior y escribe un nuevo valor. Las operaciones que se pueden realizar en esta máquina se limitan a:

·      avanzar el cabezal lector/escritor para la derecha;

·      avanzar el cabezal lector/escritor para la izquierda.

El cómputo es determinado a partir de una tabla de estados de la forma:

(estado,valor) (\nuevo estado, \nuevo valor, dirección)

Esta tabla toma como parámetros el estado actual de la máquina y el carácter leído de la cinta, dando la dirección para mover el cabezal, el nuevo estado de la máquina y el valor a ser escrito en la cinta.

Con este aparato extremadamente sencillo es posible realizar cualquier cómputo que un computador digital sea capaz de realizar.

Mediante este modelo teórico y el análisis de complejidad de algoritmos, fue posible la categorización de problemas computacionales de acuerdo a su comportamiento, apareciendo así, el conjunto de problemas denominados P y NP, cuyas soluciones en tiempo polinómico son encontradas según el determinismo y no determinismo respectivamente de la máquina de Turing.

De hecho, se puede probar matemáticamente que para cualquier programa de computadora es posible crear una máquina de Turing equivalente. Esta prueba resulta de la Tesis de Church-Turing, formulada por Alan Turing y Alonzo Church, de forma independiente a mediados del siglo XX.

La idea subyacente en el concepto de máquina de Turing es una persona ejecutando un procedimiento efectivo definido formalmente, donde el espacio de memoria de trabajo es ilimitado, pero en un momento determinado sólo una parte finita es accesible. La memoria se divide en espacios de trabajo denominados celdas, donde se pueden escribir y leer símbolos. Inicialmente todas las celdas continene un símbolo especial denominado “blanco”. Las instrucciones que determinan el funcionamiento de la máquina tienen la forma, “si estamos en el estado x leyendo la posición y, donde hay escrito el símbolo z, entonces este símbolo debe ser reemplazado por este otro símbolo, y pasar a la leer la celda siguiente, bien a la izquierda o bien a la derecha. La máquina de Turing puede considerarse como un autómata capaz de reconocer lenguajes formales. En ese sentido es capaz de reconocer los lenguajes recursivamente enumerables, de acuerdo a la jerarquía de Chomsky. Su potencia es, por tanto, superior a otros tipos de autómatas, como el autómata finito, o el autómata a pila, o igual a ortos modelos con la misma potencia computacional.

Definición.

Una máquina de Turing con una sóla cinta puede ser definida como una 6-tupla M = (Q,Γ,s,b,F,δ), donde:

·      Q es un conjunto finito de estados.

·      Γ es un conjunto finito de símbolos de cinta, el alfabeto de cinta.

·      es el estado inicial.

·      es un símbolo denominado blanco, y es el único símbolo que se puede repetir un número infinito de veces.

·      es el conjunto de estados finales de aceptación.

·      es una función parcial denominada función de transición, donde L es un movimiento a la izquierda y R es el movimiento a la derecha.

Existen en la literatura un abundante número de definiciones alternativas, pero todas ellas tienen el mismo poder computacional, por ejemplo se puede añadir el símbolo S como símbolo de nomovimiento en un paso de cómputo.

Ejemplo.

Definimos una máquina de Turing sobre elalfabeto {'0', '1'}, donde 0 representa el símbolo blanco. La máquina comenzará su proceso situada sobre un símbolo "1" de una serie. El máquina de Turing copiara el número de símbolos "1" que encuentre hasta el primer blanco detrás de dicho símbolo blanco. Es decir, situada sobre el 1 situado en el extremo izquierdo, doblará el número de símbolos 1, con un 0 en medio. Así, si tenemos la entrada "111" devolverá "1110111", con "1111" devolverá "111101111", y sucesivamente.

El conjunto de estados es {s1, s2, s3, s4, s5} y el estado inicial es s1. La tabla que describe la función de transición es la siguiente:

 Estado Símbolo Símbolo   Mov.  Estado           Estado Símbolo Símbolo   Mov.  Estado

        leido   escrito         sig.                    leido   escrito         sig.

 - - - - - - - - - - - - - - - - - - - -           - - - - - - - - - - - - - - - - - - - -

  s1      1   ->    0      R      s2               s4      1   ->   1       L     s4

  s2      1   ->    1      R      s2               s4      0   ->   0       L     s5

  s2      0   ->    0      R      s3               s5      1   ->   1       L     s5

  s3      0   ->    1      L      s4               s5      0   ->   1       R     s1

  s3      1   ->    1      R      s3

El funcionamiento de una computación de esta máquina se puede mostrar con el siguiente ejemplo (en negrita se resalta la posición de la cabeza lectora/escritora):

 Paso Estado  Cinta      Paso Estado   Cinta

 - - - - - - - - - - -   - - - - - - - - - - - -

    1  s1     11           9  s2       1001

    2  s2     01          10  s3       1001

    3  s2     010         11  s3       10010

    4  s3     0100        12  s4       10011

    5  s4     0101        13  s4       10011

    6  s5     0101        14  s5       10011

    7  s5     0101        15  s1       11011

    8  s1     1101          -- Parada --

La máquina realiza su proceso por medio de un bucle, en el estado inicial s1, reemplaza el primer 1 con un 0, y pasa al estado s2, con el que avanza hasta la derecha, saltando los símbolos 1 hasta un 0 (que debe existir), cuandolo encuentra pasa a ser s3, con este estado avanza saltando los 1 hasta encontrar otro 0 (la primera vez no habría ningún 1). Una vez en el extremo derecho, añade un 1. Después comienza elproceso de retorno; con s4 vuelve a la izquierda saltando los 1, cuand encuentra un 0 (en el medio de la secuencia), pasa a s5 que continúa a la izquierda saltando los 1 hasta el 0 que se escribió al principio. Se reemplaza de nuevo este 0 por 1, y pasa al símbolo siguiente, si es un 1, se pasa a otra iteración del bucle, pasando al estado s1 de nuevo. Si es un símbolo 0, será el símbolo central, con lo que la máquina se detiene al haber finalizado su cómputo.

Máquinas de Turing deterministas y no deterministas.

La entrada de una máquina de Turing viene determinada por el estado actual y el símbolo leído, siendo el cambio de estado, la escritura de un nuevo símbolo y el movimiento las acciones a tomar en función de una entrada. En el caso de que para cada par estado y símbolo posible exista a lo sumo una posibilidad de ejecución, diremos que es una máquina de Turing determinista, mientras que en el caso de que exista al menos un par (estado, símbolo) con más de una posible combinación de actuaciones diremos que se trata de una máquina de Turing No Determinista.

La función de transición δ en el caso no determinista, queda definida como sigue:

La capacidad de cómputo de ambas versiones es equivalente.

Konrad Zuse.

Konrad Zuse (22 de junio, 1910 - 18 de diciembre, 1995) fue un ingeniero alemán y un pionero de la computación. Su logro más grande fue terminar la primera computadora controlada por programas que funcionaba, la Z3 en 1941. Esta puede ser que haya sido la "primera computadora", aunque hay discrepancias en este sentido pues, si se consideran algunas sutilezas, como por ejemplo que la máquina de Zuse no era de propósito general, tal vez no lo sea. (Vea el artículo de historia de la computación para una discusión más profunda). También diseñó un lenguaje de programación de alto nivel, el Plankalkül, supuestamente en 1945, aunque fue una contribución teórica, pues el lenguaje no se implementó en su vida y no tuvo ninguna influencia directa en los primeros lenguajes implementados. También fundó la primera compañía de computadoras en 1946 y construyó la Z4, que se convirtió en la primera computadora comercial, y fue rentada a ETH Zürich in 1950. Debido a las circunstancias causadas por la Segunda guerra mundial, el trabajo inicial de Zuse pasó desapercibido en el Reino Unido y en los Estados Unidos. Posiblemente la primera influencia documentada de Zuse en una compañía norteamericana fue la adquisición de patentes por parte de IBM en 1946.

Trabajo anterior a la Segunda guerra mundial y la Z1.

Nacido en Berlín, Alemania, Zuse se graduó como ingeniero civil de la Technische Hochschule Berlin-Charlottenburg (hoy la Technische Universität Berlin o Universidad Tecnológica de Berlín) en 1935. Durante sus estudios de ingeniería, Zuse debió hacer muchos cálculos rutinarios a mano, lo que él encontró extremadamente aburrido. Esta experiencia lo llevó a soñar con una máquina que pudiera hacer cálculos.

Comenzó a trabajar en la fábrica de aviones de Henschel en Dessau, pero sólo un año después renunció a su trabajo para construir una máquina programable. Trabajó en el departamento de sus padres en 1938 hasta lograr su primer intento, llamado Z1 y que era una calculadora mecánica binaria operada con electricidad y de programabilidad limitada. Leía instrucciones desde una cinta perforada. La Z1 nunca funcionó bien, en parte debido a que no tenía suficientes partes precisas. La Z1 y sus planos originales fueron destruidos durante la Segunda Guerra Mundial.

Los años de guerra, Z2, Z3 y Z4.

La segunda guerra mundial hizo imposible e indeseable para Zuse y los científicos de la computación alemanes contemporáneos trabajar con otros científicos similares en el Reino Unido y los Estados Unidos, y ni siquiera permanecer en contacto con ellos. En 1939 Zuse fue llamado al servicio militar, pero logró convencer al ejército de que lo dejaran regresar a construir sus computadoras. En 1940 logró el apoyo del Aerodynamische Versuchsanstalt (Instituto de investigaciones aerodinámicas) que utilizó su trabajo para la producción de bombas planeadoras. Zuse construyó la Z2, una versión revisada de su máquina, a partir de relevadores telefónicos. Ese mismo año, inició una compañía, la Zuse Apparatebau (Ingeniería de aparatos Zuse), para manufacturar sus computadoras programables.

Satisfecho con la funcionalidad básica de la máquina Z2, construyó la Z3 y la terminó en 1941. Era una calculadora binaria que tenía programabilidad con ciclos pero sin saltos condicionales, con memoria y una unidad de cálculo basada en relevadores telefónicos. A pesar de la ausencia de saltos condicionales como instrucciones convenientes, la Z3 era una computadora Turing completa (ignorando el hecho de que ninguna computadora física puede ser verdaderamente Turing completa debido a su tamaño de almacenamiento limitado). Sin embargo, su completitud de Turing nunca fue vista por Zuse (que tenía en mente sólo sus aplicaciones prácticas) y sólo fue demostrada hasta 1998 por Raúl Rojas (ver Historia del equipo de cómputo).

Zuse nunca recibió el apoyo oficial que los pioneros de las computadoras de los países aliados recibieron, como Alan Turing. Los relevadores telefónicos utilizados en sus máquinas eran en gran parte recogidos como desperdicios.

La compañía de Zuse fue destruida en 1945 por un ataque aliado, junto con la Z3. La parcialmente terminada, basada en relevadores, la Z4 había sido llevada a un lugar más seguro con anterioridad. Zuse diseñó un lenguaje de programación de alto nivel el Plankalkül, supuestamente entre 1941 y 1945, aunque no lo publicó hasta 1972. Ningún compilador o intérprete estuvo disponible para el Plankalkül hasta que un equipo de la Universidad Libre de Berlín lo implementó en el año 2000, cinco años después de la muerte de Zuse.

Zuse el empresario.

En 1946 Zuse fundó la primera compañía de computadoras del mundo: la Zuse-Ingenieurbüro Hopferau. Consiguió capital de riesgo a través de ETH Zürich y una opción de IBM sobre las patentes de Zuse.

Zuse fundó otra compañía, Zuse KG en 1949. La Z4 fue terminada y entregada a ETH Zürich en Suiza en septiembre de 1950. En ese momento, era la única computadora funcionando en el continente europeo, y la primera computadora del mundo que fue vendida, ganándole a la Ferranti Mark I por cinco meses y a la UNIVAC I por diez meses. Otras computadoras, todas numeradas con una Z inicial, fueron construidas por Zuse y su compañía. Son notables la Z11, que fue vendida a la industria de la óptica y a las universidades y la Z12 que fue la primera computadora con una memoria basada en almacenamiento magnético.

En 1967, Zuse KG había construido un total de 251 computadoras. Debido a problemas financieros, fue vendida a la compañía Siemens AG.

Calculando el espacio.

En 1967 Zuse sugirió que el universo en sí mismo es una retícula de computadoras (física digital), en 1969 publicó el libro Rechnender Raum (traducido al inglés por el Instituto Tecnológico de Massachusetts como Calculating space en 1970. Desde la publicación del libro de Stephen Wolfram, A New Kind of Science, esta idea atrajo mucha atención, pues no había evidencia física concluyente en contra de la tesis de Zuse. Los críticos de el trabajo de Wolfram dicen que las ideas fundamentales debidas a Zuse.

Sus últimos años.

Entre 1987 y 1989, Zuse recreó la Z1 y sufrió un ataque cardiaco durante el proyecto. El resultado final tenía 30,000 componentes, costó 800,000 DM, y requirió de cuatro personas (incluyendo a Zuse) para construirla. Los fondos para este proyecto de retrocomputación fueron provistos por Siemens y un consorcio de alrededor de cinco compañías. Zuse recibió varios premios por su trabajo. Después de su retiro, se enfocó en su afición, la pintura. Zuse murió el 18 de diciembre de 1995 en Hünfeld, Alemania, cerca de Fulda.

Las máquinas de Zuse hoy en día.

Hay una réplica de la Z3 y la Z4 en el Deutsches Museum de Munich.

Bill Gates

William Henry Gates III. (n. 28 de octubre de 1955, Seattle, Washington) es un empresario estadounidense, fundador de la empresa de software Microsoft, productora del sistema operativo para computadoras personales más utilizado en el mundo. Está casado con Melinda French Gates, y ambos ostentan el liderazgo de la Fundación Bill & Melinda Gates, dedicada a reequilibrar oportunidades en salud y educación a nivel global, especialmente en las regiones menos favorecidas.

 

 

Gates en el IT-Forum de Copenhague (2004)                Davos, Suiza.2006

Cursó estudios en la escuela de élite privada de Lakeside, en Seattle. Esta escuela tenía ya una computadora en el año 1968. Así Gates tuvo la posibilidad de contactar pronto con la máquina y tomarle el gusto a la informática. No tardó mucho en aprender y sólo necesitó una semana para superar a su profesor. También en Lakeside Gates conoció a Paul Allen, con quien más tarde fundaría Microsoft.

Creó la empresa de software Microsoft el 4 de abril de 1975, siendo aún alumno en la Universidad de Harvard. En 1976, abandona la universidad y se traslada a Alburquerque, sede de Altair, para pactar con esa empresa la cesión de un lenguaje para computadoras, el Basic, al 50% de las ventas. Al año siguiente, se enteró del éxito de la empresa Apple y de que necesitan un intérprete de Basic. Intentó presentar su versión a Apple, pero ni siquiera fue recibido.

En 1980, como presidente de Microsoft, y con ayuda de su madre que era miembro de la junta de directores, se reunió con altos ejecutivos de IBM en Seattle. Consiguió venderles el sistema operativo DOS, aunque él aún no lo tenía y luego lo compró a muy bajo precio a un joven programador. IBM necesitaba ese sistema operativo para competir con Apple, razón por la cual la negociación era flexible. Microsoft quiso los derechos de licencia, mantenimiento, e incluso la facultad de vender el DOS a otras compañías. IBM aceptó, considerando que lo que produciría dividendos sería el hardware y no el software. Unos días después, Microsoft compró los derechos de autor del Quick and Dirty Operation System a Tim Paterson que trabajaba para la Seattle Computer Products, por 50.000 dólares, que entregó a IBM sin cambiar nada salvo el nombre (MICROSOFT DOS).

Consciente de la importancia del entorno gráfico que había mostrado Apple (originalmente el ambiente gráfico fue desarrollado por Xerox, y adquirido por Apple) en su ordenador Lisa (cuyo nombre es el de la primera hija de Steve Jobs), se propuso conseguir también el entorno gráfico y el "ratón" para operarlo. Mientras, Steve Jobs, fundador de Apple, inició el desarrollo del Macintosh, Bill Gates visitó Apple. Ofrecía mejorar sus hojas de cálculo y otros programas. Amenazaba con vender su material informático a IBM, con lo que obtuvo una alianza Apple-Microsoft. Microsoft se hizo con la tecnología de entorno gráfico y con el ratón, y sacó al mercado Microsoft Windows, como directo competidor de Macintosh.

El sistema operativo Microsoft Windows (en todas sus versiones), era usado al comenzar el segundo milenio en la mayor parte de ordenadores personales del planeta.

Bill Gates encabeza la lista anual de las mayores fortunas personales realizada por la revista Forbes, con bienes calculados alrededor de los 51.000 millones de dólares americanos (2005). En 1994, adquirió un manuscrito de Leonardo da Vinci por 25 millones de dólares.

La empresa se ha visto envuelta en diversos procesos judiciales acusada de prácticas monopolísticas, llegándose a especular incluso con la posibilidad de que los tribunales estadounidenses exigieran dividir la empresa, como ya sucediera con otras empresas estadounidenses en el pasado. Las acusaciones se relacionan con la vinculación de diversos programas a su sistema operativo, el más extendido, lo que es considerado por sus competidores un abuso de posición dominante para diversificar sus productos, como es el caso del navegador Internet Explorer, el reproductor de archivos multimedia, Windows Media Player, o el sistema de mensajería instantánea MSN Messenger incluido en el sistema operativo Windows. del que se han editado hasta ahora, Windows 3.1, 3.11, 95, NT, 98, 2000, Me, CE, XP, Server 2003 y para la segunda mitad del año 2006 se espera Windows Vista.

Fundación Bill y Melinda Gates.

La fundación Bill y Melinda Gates es una fundación de caridad establecida en Seattle, proveída por Bill y Melinda Gates. Fue creada en enero de 2000 al unirse las la fundación Gates para el aprendizaje y la fundación William H. Gates. La fundación es dirigida por el padre de Bill Gates, William H. Gates y Patty Stonesifer.

Son los donantes más generosos para causas benéficas según la revista Business Week, después de que la pareja entregara la suma de US$23.000 millones.

En 2004 la fundación desarrolla una campaña de US$200 millones para promover la prevención del sida en India; su mayor programa de subvenciones en un solo país. El esfuerzo cuenta con ayuda promocional de estrellas de Hollywood. Microsoft (Empresa liderada por Bill Gates) emplea a muchos ingenieros indios en Estados Unidos y tiene 1.000 empleados en India.

Forbes.

La revista Forbes es publicada en Estados Unidos y esta especializada en el mundo de los negocios y las finanzas.

Fundada en 1917 por B.C Forbes. Cada año publica listas que despiertan gran interés en el medio de los negocios como Forbes 400, Forbes 500 y Fortune 500.

Su sede central se encuentra en la Quinta avenida de Nueva York.

Anualmente, desde 1986, la revista Forbes publica su lista de las personas más acaudaladas del mundo (The World's Richest People).

Esta es la clasificación del 2005:

20 personas más ricas del mundo

Puesto

Nombre

Fortuna en dólares

País de ciudadanía / residencia

1

Bill Gates

46.500 millones

Estados Unidos

2

Warren Buffett

44.000 millones

Estados Unidos

3

Lakshmi Mittal

25.000 millones

India/Reino Unido

4

Carlos Slim Helú

23.800 millones

México

5

Principe Alwaleed Bin Talal Alsaud

23.700 millones

Arabia Saudita

6

Ingvar Kamprad

23.000 millones

Suecia/Suiza

7

Paul Allen

21.000 millones

Estados Unidos

8

Karl Albrecht

18.500 millones

Alemania

9

Lawrence Ellison

18.400 millones

Estados Unidos

10

S Robson Walton

18.300 millones

Estados Unidos

11

Jim Walton

18.200 millones

Estados Unidos

11

John Walton

18.200 millones

Estados Unidos

13

Alice Walton

18.000 millones

Estados Unidos

13

Helen Walton

18.000 millones

Estados Unidos

15

Kenneth Thomson y familia

17.900 millones

Estados Unidos

16

Liliane Bettencourt

17.200 millones

Francia

17

Bernard Arnault

17.000 millones

Francia

18

Michael Dell

16.000 millones

Estados Unidos

19

Sheldon Adelson

15.600 millones

Estados Unidos

20

Theo Albrecht

15.500 millones

Alemania

 

 

 

Steve Jobs

Steve Jobs en el MacWorld 2005

Steven Paul Jobs (nacido el 24 de Febrero de 1955) es el Presidente de Apple Computer y una de las más importantes figuras de la Industria Informática.

En 1976, siendo estudiante en la universidad de Berkeley, Steve Jobs propone a su amigo, compañero de universidad e inventor Steve Wozniak, sacar provecho comercial de su nuevo invento: ¡un ordenador con pantalla y teclado!

Como Steve Wozniak está en plantilla en Hewlett-Packard, tiene obligación contractual de presentar la idea a la empresa. La rechazan. "¿Para qué quiere la gente una computadora?" Steve Jobs presenta el invento en la Universidad de Berkeley y tiene un éxito espectacular. Comienzan a hacer ordenadores en un garaje, a mano, y a venderlos. Crean la empresa Apple. Ganan la batalla a Altair en hardware. Tienen pantalla, es más manejable. Rápida expansión y crecimiento.

Apple nombra presidente a John Sculley, antiguo presidente de Pepsi.

Los investigadores de Xerox desarrollan un entorno gráfico y el ratón. Sus directivos desprecian esta idea. Steve Jobs quiere esta tecnología para Apple. Convence a los directivos de Xerox para que les permitan visitar sus centros de investigación. Se hacen con su tecnología. La aplican al ordenador "Lisa" (nombre en honor a la hija de Steve Jobs) de Apple.

Mientras S. Jobs inicia el desarrollo del Macintosh, Bill Gates visita Apple. Ofrece holamejorar sus hojas de cálculo y otros programas. Amenaza con vender su material informático a IBM, el enemigo aparente de Apple. Consigue la alianza Apple+Microsoft y le roba la idea del raton y teclado, así como la interfaz con ventanas.

Jobs crea un equipo específico de investigadores para Macintosh, y lo enfrenta al resto de investigadores de Apple. Consigue el efecto adverso de un ambiente belicoso. Comienza a desmembrarse la empresa.

Steve Wozniak abandona Apple. En paralelo, se prevén unas ventas de Macintosh de 80.000 unidades al año, cuando tan sólo se vendieron 20.000. Esto enfureció a Jobs, quien intentó tomar el control de la empresa en perjuicio del -hasta entonces- buen amigo Sculley. Sculley solicitó el apoyo del Consejo de Administración quién le dio toda su confianza, y le permitió quitar de toda responsabilidad de mando a Jobs, quien fue "confinado" en un edificio del complejo Apple llamado "Siberia". Poco tiempo después, y sumido en una depresión, Jobs abandonó Apple vendiendo todas sus participaciones.

Después de dejar Apple, las nuevas ideas revolucionarias de Steve Jobs estaban no en el hardware sino en el software de la industria del ordenador. En 1989 intentó plasmar sus ideas con una nueva compañía llamada NeXT. Planeó construir la siguiente generación de ordenadores personales que avergonzaría a Apple, pero esto no sucedió. Después de 8 largos años de lucha y casi 250 millones de dólares invertidos, NeXT cerró su división de hardware en 1993. Después cambió su estrategia orientandola hacia el software.

Tras este fracaso, y en gran parte gracias a su condición de visionario, decide comprar una empresa de animación por ordenador recién separada de su matriz. Esta empresa se llama "Pixar" y su empresa madre de la que se separa se llama "Lucasfilm". Pixar comienza a destacar en el mundo del cine gracias a su alianza con Disney tras el film de animación "Toy Story", film que evidencia que el largometraje de animación informática es posible y toda una realidad.

Así las cosas, Jobs vuelve a estar en la cresta de la ola, ahora como presidente de Pixar. Debido a su buena gestión en esta empresa, la entonces sin rumbo Apple Computers decide fichar a quien fuera su creador.

Jobs llega con nuevas ideas, y crea el "iMac", el primer ordenador de mesa con una estética completamente desenfadada y moderna, y sin disquetera. El concepto de este ordenador es funcionar con, por y para la Internet, por lo que sólo tiene un lector de discos compactos. Al principio, este hecho es criticado por no ajustarse a la realidad, pero el caso es que es Jobs quien está definiendo lo que se hará en la informática y no Jobs quien se tiene que adaptar al mercado.

Este ordenador tuvo un éxito sin precedentes, al cual siguió la versión portátil. Posteriormente, Apple se ha afianzado con una línea de productos especializados que aprecian mucho los profesionales de la industria audiovisual, musical y médica, gracias a sus magníficos gráficos. Actualmente intenta hacerse un hueco dentro de la ofimática "normal", pero esto es un terreno muy duro en el que el sistema operativo Windows de Microsoft es difícil de vencer. La razón principal es la variedad de programas, lo cual habitúa a la mayoría de la población susceptible de usar ordenadores a utilizar Windows.

En este momento la gama Apple va desde el miniordenador Mac Mini hasta el potente y exuberante Power Mac G5 de cuádruple núcleo (doble núcleo por cada uno de sus dos procesadores), dejando un listón muy alto que sus competidores no están consiguiendo superar.

Por otra parte, la industria musical está cambiando, en gran parte debido al formato MP3, y Apple introduce en el mercado su iPod, un artilugio digital que cabe cómodamente en la palma de la mano y que es capaz de almacenar mucha información musical (15.000 Canciones, en su versión de 60Gb.) con un sonido transparente, muy similar a la calidad de los discos compactos. El iPod representa en la industria del ocio una repercusión y una revolución similares a las que tuvo sobre los 80 el "Walkman" de Sony.

Actualmente, las funcionalidades de este reproductor llegan más allá del propósito para el cual fué pensado en un principio, existiendo modelos en la actualidad que permiten reproducir ficheros de audio así como de vídeo, o bien gestionar todo un álbum de fotos en cuestión de centímetros, gracias a la pantalla en color que integran los últimos modelos.

Steve Jobs se casó con Laurene Powell en 1991 y viven en Palo Alto, California, con sus tres hijos.

Ken Thompson.

Ken Thompson y Dennis Ritchie con Bill Clinton.

Ken Thompson es uno de los creadores del sistema operativo Unix. Nació en 1943 en Louisiana, Estados Unidos.

Trabajó en la empresa Bell Labs donde creó en 1969 con Dennis Ritchie el sistema operativo Unix. Creó también el Lenguaje de programación B.

Dennis MacAlistair Ritchie (n. en 1941) es un físico estadounidense que colaboró en el desarrollo del sistema operativo Unix y creó el lenguaje de programación C, tema sobre el cual escribió un célebre clásico de la informática junto a Brian W. Kernighan: El Lenguaje de Programación C.

Nació en Bronxville (Nueva York) el 9 de septiembre de 1941. En 1967 ingresó a Laboratorios Bell en donde trabajó en Multics, BCPL, ALTRAN y el lenguaje de Programación B. En Lucent encabezó los esfuerzos para la creación de Plan 9 e Inferno. Sus aportaciones junto a Ken Thompson al campo de los sistemas operativos han sido reconocidas con el Premio NEC C&C en 1979, con el Premio Turing de la ACM en 1983 y con la Medalla Nacional de Tecnología de los Estados Unidos en 1998.