No se puede polemizar acerca del impacto revolucionario que ha tenido la tecnología informática en el quehacer diario de todas las personas. La Historia de la Informática está plagada de avances sorprendentes y a la vez rutinarios, sin necesidad de recurrir a tecnicismos. Es abrumante la omnipresencia de diferentes dispositivos y su capacidad de guardar información o transmitirla a cualquier lugar del mundo. Entérate de mucho más a continuación.
Historia de la Informática
Cuando intentamos hacer un resumen de la historia de la informática de los últimos años usualmente nos encontramos ante la circunstancia de escribir sobre algo que mañana ya seguramente se habrá mejorado. Si deseamos ser rigurosos debemos reconocer que sus raíces se remontan a los orígenes de la civilización, cuando las personas se vieron en la necesidad de manejar y registrar información mediante símbolos.
Pero en su historia igualmente hemos de recoger sus raudos avances y la divulgación vertiginosa que ha experimentado desde 1945, lo que no resulta fácil, si deseamos mantener de forma simultánea la perspectiva histórica. Con este artículo intentamos repasar las personas, los equipos, las instituciones y los conceptos esenciales que conforman la revolución informática tal y como se le conoce hoy en día.
Comienza con el ábaco, uno de los instrumentos primitivos de cálculo y hace su recorrido hasta el siglo XXI, en el que las redes de computadores personales han devenido en algo habitual y en el que el poderío informático ha acabado por ser incorporado en diminutos dispositivos portátiles. Pese a que los equipos digitales continúan evolucionando más rápidamente que nunca, los computadores personales parecen haberse estancado.
Hardware y Software
Sus componentes físicos no has sufrido mejoras significativas: un teclado (idéntico al de la de la añeja máquina de escribir de 1890); una gabinete contentivo de los circuitos electrónicos y los dispositivos de almacenamiento, y un terminal de visualización (heredero de la pantalla de televisor de fines de 1940). Lo mismo ha acontecido con los circuitos electrónicos que tiene dentro, aparte de que cada vez cuenten con mayor capacidad, en los últimos treinta y cinco años se han compuesto de circuitos integrados de silicio recubiertos de tubos plásticos negros montados en paneles plásticos.
Los computadores portátiles llegaron para cambiar dicha configuración, pero básicamente son iguales. Los ingenieros y usuarios coinciden en que su estructura física muestra cuantiosos problemas. Evaluemos, por ejemplo, las lesiones musculares en las manos producto del uso exagerado de un teclado que fue diseñado un siglo atrás. Ahora bien, aún no han sido exitosos los numerosos intentos por lograr hacerlos tan poderosos, versátiles y fáciles de usar como sus similares de otras plataformas, en particular como los teléfonos móviles.
Los programas que estos computadores utilizan, el software, que sigue desarrollándose con gran rapidez, como asimismo lo hacen los sistemas a los que suelen conectarse como bases de datos y las redes de comunicación a nivel mundial. No es posible pronosticar adónde nos conducirá todo ello. De hecho, cualquier novedad publicada en este artículo con seguridad quedara obsoleta dada la indetenible marcha de los avances de la informática.
Los orígenes de esta disciplina se sitúan al menos en cuatro coyunturas históricas. La primera es la más obvia: la Antigüedad, cuando civilizaciones emergentes comenzaron a utilizar objetos para contar cosas tales como las piedrecillas, los tablones de cálculo y los ábacos, todos ellos han sobrevivido hasta el siglo XX, aunque ninguno de dichos instrumentos muestra parecido con lo que actualmente llamamos computador.
Para los ciudadanos de nuestro tiempo, un computador es un dispositivo o conjunto de ellos que nos libera de lo pesado que suelen ser las tareas de cálculo, así como la faena simultanea de guardar y recuperar información. Por ende, el segundo momento histórico en los anales de la informática vendría a ser 1890, cuando Herman Hollerith ideó la tarjeta perforada en conjunto con un sistema de máquinas para procesar, evaluar y clasificar la información registrada en ellas para ser utilizada en el censo de Estados Unidos.
Máquinas Elementales
El sistema de Hollerith emergió en circunstancias trascendentales, cuando, en plena era industrial, maquinarias como el motor a vapor y las turbinas hidráulicas y de vapor estaban transformando la industria. El vinculo entre energía y producción requería de una mayor supervisión, no únicamente física, sino igualmente en el manejo de datos llegaron con la industrialización.
Esto se hizo posible gracias a los tabuladores de Hollerith, pero hubo otros sistemas como las máquinas eléctricas para el registro contable, las cajas registradoras, las máquinas mecánicas de adicionar, la conmutación automática y los sistemas para controlar ferrocarriles, módulos telefónicos y telegráficos en conjunto con los sistemas de información para los mercados de valores y materias primas a nivel mundial.
Sin embargo, un lector del presente podría quejarse y señalar que éste aún no es el punto de arranque apropiado. Al parecer la genuina revolución informática está asociada a la electrónica, si no con los microprocesadores de silicio, que actualmente se encuentran en todos lados, al menos en sus antecesores inmediatos, los transistores y los tubos de vacío.
De acuerdo a ello, la era de la informática nació en febrero de 1946, cuando el ejército estadounidense develó el Calculador e Integrador Numérico Electrónico (Electronic Numerical Integrator and Computer, ENIAC) que solía contar con 18.000 tubos de vacío. Fue presentado como un instrumento con la capacidad de calcular el recorrido de un proyectil arrojado desde un cañón antes de que dicho hecho ocurriese.
El ejemplo fue muy bien escogido, ya que esta clase de cálculos era la razón por la cual el ejército había hecho la inversión de más de medio millón de dólares de la época, en un sistema que se sabía era arriesgado y estaba por demostrarse. Una investigación histórica de los últimos años ha revelado que anteriormente existía otra máquina que efectuaba operaciones de cálculo con tubos de vacío.
Era el Colossus inglés, del que se construyeron varias unidades que fueron instaladas en Bletchley Park, Inglaterra, a lo largo de la Segunda Guerra Mundial, y fueron usadas exitosamente para desentrañar los códigos alemanes. En contraste al ENIAC, estas máquinas no efectuaban cálculos aritméticos convencionales, pero sí realizaban operaciones de lógica con enorme rapidez, y unas cuantas de ellas ya tenían algunos años funcionando previo a la aparición pública de la creación estadounidense.
Al igual que el ENIAC, el Colossus estuvo precedido de un aparato experimental que fue diseñado en la Universidad de Iowa por el físico John V. Atanasoff, en conjunto con Clifford Berry. Esta máquina igualmente efectuaba operaciones de cálculo mediante tubos de vacío, empero y pese a que sus componentes principales fueron presentados en 1942, jamás llegó a estar operativa.
Podrá observarse que lo esencial no es que la existencia de una tecnología sea suficiente, sino que su valor reside en que sea utilizada en empresas y hogares de forma habitual. Tras todo lo señalado, quizás solo fue una docena de personas la que tuvieron la oportunidad de usar el ENIAC y aprovecharse de su maravillosa potencia. Lo mismo ocurrió con los equipos Colossus, que fueron desmontados al finalizar la Segunda Guerra Mundial.
La Modernidad
De acuerdo a ello, 1946 ya no sería el año de auténtico nacimiento de la revolución informática, sino 1977, fecha en la que dos jóvenes, Steve Jobs y Steve Wozniak, oriundos de lo que es conocido como Silicon Valley, develaron al mundo un computador denominado Apple II. El Apple II separó a la informática del entorno especializado de las grandes empresas y el ejército y la presentó al resto de la humanidad.
De acuerdo a la juventud de hoy, la revolución informática es de fecha más reciente, ya que estiman que tuvo lugar cuando, debido a Internet, un computador en un lugar específico intercambió datos con computadores ubicados en otros sitios. La más afamada de dichas redes fue creada por la Agencia de Proyectos de Investigación Avanzada (Advance Research Projects Agency, ARPA) del Departamento de Defensa estadounidense, el que a inicios de 1969 ya tenía una red operativa (ARPANET).
No obstante, también existieron otras redes que enlazaron computadores personales y minicomputadores. Cuando ambas se fusionaron, en la década de 1980, surgió Internet tal y como se le conoce. Hoy se dice que está teniendo lugar una novedosa transformación que experimenta la informática, y es la fusión entre computadores personales y equipos de comunicación portátiles.
Cómo en otras oportunidades, transformaciones como ésta vienen en compañía de reseñas de la prensa que hablan de sus connotaciones revolucionarias. Es obvio que el teléfono cuenta con una historia prolongada e interesante, en la que ha sufrido numerosos cambios. Pero en el futuro surgirán más, todos impredecibles y presentados como el último avance de la revolución informática y todos confinaron al olvido las «revoluciones» previas.
Esta narración se remonta a inicios de la década de 1940, cuando el pase de los computadores mecánicos a los electrónicos fue, en efecto, significativo, ya que con ello se echaron las bases para inventos ulteriores, como los computadores personales. En dichos años acontecieron más cosas relevantes: fue en dicha década cuando nació el concepto de programación como actividad separada del diseño de los equipos informáticos, si bien de gran importancia para que éstos últimos pudiesen ser utilizados para lo que fueron diseñados.
Finalmente, fue en dicha época cuando, como fruto de la experiencia con las iniciales e inmensas computadoras experimentales ya operativas, surgió un diseño funcional elemental, una arquitectura, para emplear un término actual, que ha logrado mantenerse a lo largo de las oleadas continuas de avances tecnológicos hasta hoy día. Por ende, y con todos los matices que habría que agregar para que la afirmación resulte verosímil para los historiadores, hemos de considerar que el ENIAC estableció el eje de la revolución informática.
Aquel equipo, ideado y desarrollado en la Universidad de Pensilvania a lo largo de la Segunda Guerra Mundial, dio inicio a lo que se conoce como era informática. Mientras se llegue a entender que cualquier punto de arranque histórico que se escoja es en cierta medida arbitrario, y al tanto se conceda el debido crédito a los avances que ocurrieron previamente, entre los que se incluyen los aportes de Babbage y Hollerith, al igual que los inventos de la máquina de adicionar, la caja registradora y otros dispositivos semejantes, podemos comenzar aquí.
Introducción a la Informática
Prácticamente todas las culturas han desarrollado la capacidad de contar y de registrar cantidades con símbolos de alguna clase, por muy elementales que les parezcan a los estudiosos de la actualidad. Conseguir evidencias físicas de ello es mucho más dificultoso, a menos que hubiesen utilizado materiales perdurables como las tablillas de arcilla. Se sabe que la noción de simbolizar y manejar información cuantitativa por medio de piedrecillas, cuentas, lazos en una cuerda o procedimientos semejantes surgió de forma autónoma en todo el mundo antiguo.
Primeros Tiempos
Por ejemplo, los expedicionarios españoles en el Nuevo Mundo hallaron que los incas empleaban una avanzada técnica de cuerdas con lazos denominado quipu, y que en la Biblia se hace alusión un sistema similar de sartas con nudos, y que solo una de ellas, el rosario, ha permanecido hasta la actualidad. Una modalidad de representación muy imprecisa de las cuentas derivó en el ábaco, del que, al menos, han arribado a nuestros días tres tipos distintos en China, Japón y Rusia, y que en manos de un usuario diestro es una herramienta de cálculo poderosa, compacta y versátil.
En el Medioevo, las naciones occidentales igualmente emplearon asistentes de cálculo similares, entre los que se cuentan unos tableros (provistos de cuadrículas y patrones para simplificar las sumas) y sus fichas (que nos han llegado a modo de fichas de juego que se usan en los casinos). Es de importancia indicar que dichos instrumentos únicamente los utilizaban las personas cuyos puestos dentro del gobierno, la Iglesia o los negocios lo necesitasen.
Hecha la aclaración se podría decir que eran de uso frecuente, aunque ello no significaba que se encontrasen en todos lados. Esta misma advertencia sirve para la totalidad de las máquinas de cálculo, ya que su adquisición está supeditada, indudablemente, a lo onerosa que sean, si bien es asimismo esencial que se ajusten a los requerimientos de quienes las van a utilizar.
Al ser industrializada la sociedad occidental y tornarse más compleja, estos requerimientos crecieron; sin embargo es conveniente señalar que, pese a lo mucho que han descendido los precios de los computadores y del acceso a Internet, no se ha logrado aún que ingresen por completo al mercado del consumidor y, con mucha probabilidad, jamás lo hagan. Antes de referirnos a las máquinas es conveniente hacer mención a otra herramienta de cálculo cuyo uso fue extenso y que ha arribado hasta nuestro tiempo de modo muy rudimentario.
Las Tablas Impresas y Otros Sistemas
Son las tablas impresas, en las que se mostraban, por ejemplo, un listado de valores de una función matemática específica. Su uso se remonta a la Grecia antigua, pero igualmente fue muy utilizada por los astrónomos y, aún mucho más por los marinos en alta mar. El comercio de los seguros, de su lado, desarrolló las denominadas tablas de estadísticas, como las de los registros de mortalidad. Hoy en día, las calculadoras de bolsillo y los programas informáticos de hojas de cálculo nos permiten hacer operaciones de forma inmediata, pero las tablas aún poseen su valor.
Aún se pueden conseguir sitios en los cuales se emplean, lo que deja en evidencia su intima relación con uno de los usos primordiales de los instrumentos de cálculo electrónico del presente. La mayor parte de dichos instrumentos operaban con el sistema numérico indo-árabe, en el que el valor de un símbolo va a depender no únicamente del símbolo mismo (1, 2, 3…), sino igualmente de la posición en la que se encuentra situado (y en la que el significativo cero se utiliza como un parámetro de reemplazo).
Este método de numeración era mucho más evolucionado que los del tipo aditivo, como el romano, y su aceptación por parte de los europeos a fines del Medioevo se erigió como un hito en la ruta hacia el cálculo moderno. Cuando eran realizadas operaciones de adición, si el total de los cifras de una columna superaba a nueve había que trasladarlo a la próxima columna a la izquierda. Al mecanizarse dicho proceso se dio lugar a un avance significativo desde las ayudas para calcular citadas previamente en vía hacia el desarrollo del cálculo automático.
Una reseña esquemática y fragmentaria que apareció en una misiva a Johannes Kepler expone que el profesor Wilhelm Schickard, de Tubinga, Alemania había proyectado un aparato con dichas características a inicios del siglo XVII, no habiendo evidencia de que alguna de sus piezas haya arribado a nuestros días. En 1642 el filósofo y matemático de Francia Blaise Pascal concibió una máquina de sumar que es la de mayor antigüedad de cuantas se preservan. Los dígitos eran introducidos en la calculadora al hacer girar una agrupación de ruedas, una por cada columna.
Al superar las ruedas el 9, un diente del engranaje hacia avanzar en una unidad a la rueda aledaña. Pascal se empeño mucho para cerciorarse de que en el caso extremo de adicionar un 1 a una serie de 9 no quedase bloqueado el mecanismo. Este artilugio sirvió de inspiración a unos cuantos inventores para elaborar aparatos semejantes, pero ninguno pudo comercializarse de forma exitosa. Ello fue debido a que, por una parte, a que eran débiles y endebles y, por ende, caros y, por otro, a que en los tiempos de Pascal estas máquinas no eran consideradas necesarias.
Unas tres décadas más adelante el filósofo y matemático de Alemania Gottfried Wilhelm Leibniz, se enteró de la creación de Pascal y se propuso diseñar una calculadora. Logró fabricar una máquina que no únicamente adicionaba sino que asimismo multiplicaba por medio del uso de engranajes que acoplaban una cantidad variable de dientes que dependían de dónde hubiese colocado el operador el círculo señalizador.
Esta calculadora no operó de buena forma, pero su tambor en escalones sirvió de base para casi la totalidad de las calculadoras de multiplicar hasta fines del siglo XIX. Uno de sus herederos modernos, el Curta, era lo bastante pequeño como entrar en un bolsillo, y se elaboró y vendió hasta inicios de la década de 1970. El surgimiento de una sociedad más comercial, con una clase media creciente, coadyuvó a hacer más propicias las condiciones para el éxito mercantil.
En 1820, Charles Xavier Thomas, pionero de la consolidación del sector de seguros en Francia, proyectó y vendió su Aritmómetro, en el que se sirvió del tambor en escalones de Leibniz para realizar multiplicaciones. En un inicio no se comercializaron muchos, pero luego de 1870 su uso se expandió, llegando a venderse una centena de ejemplares cada año. Para la época la industrialización se encontraba en pleno apogeo y, con la máquina de Thomas, surgieron una serie de productos que rivalizaron entre sí para complacer la ascendente demanda.
Avances a ambos lados del Atlántico
Esto sucedía a ambas orillas del Atlántico, ya que son particularmente importantes dos aparatos de sumar desarrollados en Estados Unidos. Pese a que ninguno de las dos podía realizar multiplicaciones, sí hacían sumas con gran rapidez, eran de fácil uso, su costo era moderado (aunque no bajo) y tenían mucha resistencia, lo que las hacía beneficiosas. A mitad de la década de 1880, Dorr E. Felt ideó y patentó una máquina de adicionar que se utilizaba oprimiendo una serie de teclas numéricas, una sucesión de cifras por cada colocación numérica.
Y, lo que fue aún más novedoso, el esfuerzo necesario para oprimir las teclas servía para activar el mecanismo de modo que el operador no requería parar para girar una manivela, jalar de una palanca o ninguna otra cosa. Manipulada por un operador diestro, que no requiriese apartar los dedos del teclado, ni siquiera mirarlo, el Comptómetro de Felt podía efectuar sumas con gran rapidez y exactitud. Al ser vendidos por un precio de unos 125 dólares, los comptómetros prontamente se transformaron en una herramienta frecuente en las oficinas de Estados Unidos de inicios del siglo XX.
En el mismo tiempo, William Seward Burroughs creó una máquina de adicionar que podía imprimir los resultados en una cinta de papel, no habiendo la necesidad de observarlos en la ventanilla. Su creación significó el inicio de Burroughs Adding Machine Company, que en los años 1950 emprendió su traspaso a la fabricación de computadores electrónicos, y que luego de fusionarse con Sperry en 1980 se le reconoce con la denominación de Unisys Corporation.
En las oficinas europeas las máquinas de cálculo igualmente devinieron en un producto de uso frecuente, pese a que tomaron un sendero distinto. El ingeniero de Suecia W. Odhner desarrolló una máquina compacta y robusta que además de multiplicar sumaba, por medio de un tipo de engranaje distinto al de Leibnitz (los números eran introducidos al activar palancas en vez de oprimir teclas), y que se vendió de forma exitosa con los nombres de Odhner, Brunsviga y otros.
Aportes de Babbage
No se puede dar por terminado ningún análisis acerca de máquinas de cálculo sin citar a Charles Babbage, un inglés a quien muchos han considerado el inventor del primer computador automático y que se podía programar, la afamada máquina analítica. Esta idea le sobrevino tras diseñar y ensamblar de forma parcial una máquina diferencial, un diseño más sencillo pero que simbolizaba un enorme avance para la tecnología de cálculo de su tiempo.
En otros párrafos nos referiremos en detalle a la obra de Babbage. Es suficiente comentar que lo que mostró a inicios de la década de 1830, fue el diseño de una máquina con todos los elementos básicos operativos de un computador moderno: una unidad aritmética que denominó Mill, una unidad de memoria que nombró Store, un sistema para programarla mediante tarjetas y una manera de imprimir los resultados o agujerear las respuestas en otro conjunto de tarjetas. Se construiría de metal y operaría con un motor a vapor.
Babbage vivió cuantiosos años procurando que su idea llegase a término, pero al morir en 1871 únicamente se habían fabricado algunas piezas. Resulta curioso creer en lo distinto que sería el mundo si Babbage hubiese terminado su máquina. Tal vez hubiésemos conocido una época de la información con motores a vapor. No obstante, como ya sucedió con los artilugios de Pascal y Leibniz, hay que tener presente que el mundo de entonces no se encontraba forzosamente presto para esta clase de invento.
Para que hubiese tenido verdadera trascendencia, Babbage no únicamente hubiese tenido que vencer las dificultades técnicas que arruinaron su motor analítico, igualmente exhibir unas dotes comerciales de consideración para persuadir al público de que su invento era verdaderamente provechoso. La evidencia de ello se encuentra en el hecho de que los suecos Georg Scheutz y su hijo Edvard concluyeron en 1853 el proyecto de una máquina diferencial funcional a la que se estimaba como la primera calculadora comercial con impresora.
Pese a que el observatorio de Dudley de Albany, estado de Nueva York, la compró, ciertamente la máquina solamente tuvo relevancia en la ciencia o el comercio. La era de la información aún tenía que aguardar. A fines del siglo XIX el arte de calcular se había afianzado. En el ambiente de los negocios el simple comptómetro o el Odhner habían llegado a ocupar su sitial al lado de otros aparatos de alcance semejante, como lo son la máquina de escribir o el teletipo.
En el ámbito científico, aún limitado en aquella época, existía relativo interés, más no el suficiente para estimular la elaboración de algo que fuese más allá de un aparato especializado aquí y allá. Las ciencias que requerían efectuar cálculos, como la astronomía, solían resolver con las tablas impresas y las calculadoras humanas (así usualmente se llamaba a quienes efectuaban dicha tarea) que se atareaban con papel y lápiz, textos de tablas matemáticas y, tal vez, alguna máquina de sumar.
Igual ocurría con los ingenieros, empleaban libros de tablas matemáticas auxiliados ocasionalmente por máquinas especializadas concebidas para resolver un problema específico (por ejemplo, una herramienta para prever mareas o el analizador diferencial de Bush). Desde 1900 los ingenieros igualmente llegaron a contar con la asistencia de dispositivos analógicos como el planímetro y, particularmente, la regla deslizante, un instrumento de exactitud limitada, pero versátil, que cumplía de forma razonable con la mayor parte de las requerimientos de los ingenieros.
Las Tarjetas Perforadas
Las tarjetas agujereadas de Herman Hollerith comenzaron como uno de dichos sistemas especializados. En 1889 respondió a una solicitud del responsable del censo de Estados Unidos, a quien se le dificultaba cada vez reportar sus informes en el tiempo debido. La tarjeta agujereada, en conjunto con la técnica de codificación de datos mediante patrones de perforaciones en dicha tarjeta, y de ordenación y computo de los totales y subtotales que la hacían compañía se ajustaba perfectamente a los requerimientos de la Oficina del Censo.
Lo que sucedió luego fue debido particularmente a la iniciativa de Hollerith quien, tras inventar este sistema, no estuvo conforme con contar con un único cliente que lo emplease una vez por década, por lo que emprendió una campaña para persuadir a otros de sus beneficios. Creó una empresa, que en 1911 se aunó con otras dos para conformar la Computing-Tabulating-Recording Corporation, la que, al tomar su dirección Thomas Watson en 1924, pasó a denominarse International Business Machines o IBM.
Watson, quien solía ser vendedor, entendió que dichos aparatos debían cumplir con los requerimientos de los clientes si deseaban prosperar. Al tanto, la Oficina del Censo, a la que no le agradaba depender en demasía de un único proveedor, promovió el crecimiento de una empresa rival, Remington Rand, que se transformó en el más importante competidor de IBM en esta clase de equipos a lo largo de las siguientes 5 décadas.
Al verlo en retrospectiva, parece percibirse que lo exitoso de los sistemas de tarjetas agujereadas vino predicho de antemano, ya que su capacidad para ordenar, compilar y tabular información encajó perfectamente con la progresiva demanda de datos concernientes a las ventas, el mercadeo y la producción provenientes de una economía industrial en apogeo. Indudablemente que el factor fortuna fue de ayuda, empero hay que adjudicar a Hollerith el crédito dada su perspectiva de futuro, así como a Watson por promover de forma persistente dicha tecnología.
Al tambalearse la economía estadounidense en 1930, los equipos IBM prosiguieron utilizándose tanto como antes, pues complacían el afán por datos estadísticos de las agencias de gobierno de Estados Unidos y de otras naciones. Watson, vendedor por excelencia, fomentó y financió de forma generosa potenciales aplicaciones de los productos de su empresa en los entornos educativos y científicos. Cómo compensación, ciertos científicos hallaron que los equipos IBM, con cambios mínimos, eran de utilidad para resolver problemas científicos.
Para astrónomos como L. J. Comrie la tarjeta agujereada se transformó efectivamente en el sueño frustrado de Babbage llevado a la realidad. Otros estudiosos, entre ellos el ya citado Atanasoff, habían emprendido el diseño de calculadoras especializadas con capacidad de efectuar una serie de operaciones, como se conjeturaba habría realizado la máquina analítica que Babbage jamás llegó a concluir.
Todos ellos lo lograron con el auxilio de los tabuladores y calculadoras mecánicas de IBM que consumaron su cometido tan satisfactoriamente que hicieron casi inútil el desarrollo de una nueva clase de máquina. Al repasar dicha era se suele observar una correspondencia notoria entre estos novedosos diseños de calculadoras programables y el de la máquina analítica que jamás llegó a perfeccionarse. No obstante, el único diseñador que sabía de la vida de Charles Babbage era Howard Aiken, un profesor de la Universidad de Harvard, y ni siquiera él siguió su modelo al desarrollar su propio computador.
Para 1930, no era Babbage un perfecto desconocido, pero la mayor parte de las historias que sobre él se conocían concordaban en que su obra había sido un decepción y sus máquinas, ideas desacertadas, lo cual no fue muy inspirador para las entrante generación de jóvenes creadores. No obstante, todos los que fueron exitosos donde Babbage falló, tenían en común su pasión y resolución por hacer realidad, mediante engranajes y alambres, la noción de cálculo automático. Asimismo solían contar, además, con buenas cualidades para convencer, como las poseía Thomas Watson.
Entre ellos se debe citar a Kourand Zuse, quien aún cursando estudios de Ingeniería en Berlín, a la mitad de la década de 1930, trazo un esbozo de una máquina automática ya que, según señalaba, era muy holgazán para realizar las operaciones de cálculo requeridas para sus estudios. Al ser sumido el planeta en la guerra por los nazis, Zuse laboraba durante el día en una fábrica aeronáutica en Berlín y al anochecer construía aparatos experimentales en el hogar de sus padres.
Equipos de Mayor Complejidad
Para diciembre de 1941 puso en operación su Z3, empleando relés telefónicos que sobraban para los cálculos y el almacenaje, y películas fotográficas perforadas ya desechadas para la programación. Howard Aiken se propuso, al tanto culminaba su tesis de Física en Harvard en 1937, proyectar lo que más adelante se conocería como Calculadora Controlada por Secuencia Automática (Automatic Sequence Controlled Calculator, ASCC).
Escogió las palabras de forma deliberada pretendiendo que reflejasen su opinión de que la deficiencia de capacidad de las máquinas de tarjetas agujereadas para realizar series de operaciones implicaba una limitación para su utilización científica. Aiken logró la ayuda de IBM, que fabricó la máquina y la trasladó a Harvard. Allí, en el apogeo de la Segunda Guerra Mundial, en 1944, la hizo conocer.
De allí que el ASCC igualmente sea conocido por ser el invento que inicialmente hizo conocer el concepto de cálculo automático (esto fue transmitido por los espías alemanes a Zuse, teniendo éste para 1944 muy adelantada la construcción de un aparato con características semejantes a la de Aiken). El ASCC, o Harvard Mark I, como usualmente se le llama, empleaba componentes IBM alteados para los registros, pero se solía programar mediante una cinta de papel agujereada.
Un matemático-investigador empleado por los Bell Telephone Laboratories de Nueva York de nombre George Stibitz, ideo en 1937 un elemental circuito que realizaba adiciones mediante la aritmética binaria, un método numérico de difícil uso para los humanos, pero que se adecuaba perfectamente a dichos dispositivos. En un par de años logró convencer a su empresa para que elaborara una compleja calculadora basada en relés que operase con los denominados números complejos, que frecuentemente emergían en los estudios de circuitos telefónicos.
Este equipo calculador de números complejos no se podía programar, pero coadyuvó a la creación de otros prototipos en los laboratorios Bell a lo largo de la Segunda Guerra Mundial que sí lo permitían. Todo lo cual concluyó con el proyecto de varios computadores voluminosos de uso genérico en base a relés, que contaban con la capacidad no únicamente de ejecutar una serie de operaciones aritméticas, sino asimismo de cambiar su forma de proceder en base a los resultados de un cálculo anterior.
Esta última particularidad, en conjunto con la rapidez electrónica, es considerada una diferencia sustancial entre lo que hoy se conoce como computadores y sus antecesores de inferior capacidad, las calculadoras (Stibitz fue el que primeramente empleo en 1943 el término digital para especificar máquinas que efectuaban cálculos con números discretos). Para concluir este análisis de máquinas se ha de citar al Analizador diferencial diseñado por el MIT (Massachusetts Institute of Technology, Instituto tecnológico de Massachussets) bajo la jefatura del profesor Vannevar Bush a mitad de la década de 1930.
Este aparato no efectuaba cálculos de forma digital, para usar el término actual, pero operaba de acuerdo a un principio similar al de los contadores de vatios analógicos que suelen encontrarse en las viviendas. Por otra parte, el analizador de Bush era semejante a otras máquinas a las que ya hemos hecho referencia previamente. Así como otros pioneros, Bush pretendía solucionar un problema particular: examinar las redes de los alternadores de corriente alterna y las líneas transmisoras.
El Analizador diferencial se encontraba conformado por una complicada estructura de unidades de cálculo que se solían reconfigurar para solucionar una diversidad de problemas. Dada los requerimientos de la Segunda Guerra Mundial se instalaron varias unidades de este aparato, pero fueron destinados a resolver dificultades más urgentes. Una de las cuales, la que fue instalada en la Moore School of Electrical Engineering de Filadelfia, fue fuente de inspiración para el ENIAC. Todos estos equipos usaban engranajes mecánicos, ruedas, levas o relés para sus piezas de cálculo.
Los relés son componentes eléctricos, pero el interruptor acciona la corriente de forma mecánica, con lo que la rapidez de la operación cuenta, esencialmente, con las mismas características que las de los elementos enteramente mecánicos. Ya se conocía, en 1919, la existencia de la factibilidad de proyectar un circuito basado en tubos de vacío con la capacidad de hacer la conmutación con mayor velocidad, al ser producida ésta en el interior del tubo mediante una corriente de electrones de masa despreciable.
Los tubos tenían predisposición a quemarse, ya que para operar necesitaban de gran potencia que al mismo tiempo era fuente de demasiado calor. Los alicientes para fabricar una máquina de cálculo basada en tubos no eran muchos, a menos que sus ventajas en cuanto a velocidad rebasasen dichos inconvenientes. A la mitad de la década de 1930 John V. Atanasoff, profesor de Física de la Universidad de Iowa, advirtió las ventajas de utilizar circuitos de tubos para solucionar sistemas de ecuaciones lineales.
Las ecuaciones lineales pueden ser localizadas en prácticamente la totalidad de las ramas de la Física y su solución necesita efectuar una gran cantidad de operaciones de aritmética usuales pero manteniendo los resultados intermedios. Gracias a una moderada beca universitaria, Atanasoff comenzó el diseño de circuitos en 1939, y para 1942 ya disponía de un prototipo funcional, salvo fallas intermitentes que ocurrían en la unidad de almacenaje intermedia. En ese tiempo Atanasoff fue a Washington para dedicarse a otros proyectos a lo largo de la guerra y no llegó a culminar su computador.
Al mismo tiempo en Alemania, un colega de Zuse de nombre Helmut Schreyer concibió circuitos de tubos que reveló como reemplazos de los relés que utilizaba Zuse. Pese a que esta proposición conformó el fundamento de su tesis doctoral, aparte de unos pocos paneles experimentales, no progresó mucho con ella. Los tubos de vacío fueron, por primera ocasión, aplicados de forma exitosa a la informática en Inglaterra, donde el equipo responsable de descifrar códigos, diseñó, muy secretamente, una máquina con la que a interpretar los mensajes militares que transmitían los alemanes por radio.
ENIAC y Colossus
Este ejemplo ilustra perfectamente la necesidad de la rapidez que proporciona la electrónica, pues no únicamente existía una considerable cantidad de combinaciones de teclas a tener presente sino que asimismo el contenido de los mensajes que se interceptaban solían perder valor militar al pasar del tiempo y con frecuencia resultaban obsoleto tras unos días. El primero de los denominados Colossus se concluyó en 1943 (casi en la época en que se comenzó el ENIAC), y para cuando acabo la guerra estaban operativos diez de ellos.
La información concerniente a estos aparatos sigue manteniéndose clasificada, inclusive luego de 65 años, pero se ha revelado que aunque no efectuaban operaciones aritméticas al igual que las calculadoras, sí podían hacer y, así lo hicieron, operaciones de lógica con información representada en símbolos, lo cual conforma la base de los circuitos electrónicos de proceso del presente. El ENIAC, concebido en la Universidad de Pensilvania y expuesto públicamente en febrero de 1946, conserva más la tradición de las máquinas que recién vimos que la de los computadores electrónicos de uso genérico que le prosiguieron.
Fue ideado, expuesto y diseñado para solucionar un problema particular: calcular las tablas de las trayectorias de los proyectiles del ejército. Su arquitectura es una imagen de lo que hacía falta para solventar dicho problema, y no hay computador alguno que la haya podido imitar. Solamente se fabricó uno, y pese que al final de la guerra produjo que la confección de tales tablas no fuese tan urgente, los requerimientos militares fueron siempre decisivos para que ENIAC siguiera existiendo (fue desconectado en 1955).
En los años 1940 la informática se encontraba en avance en diversos frentes. Los ejemplos ya citados son los más sobresalientes, pero, tras ellos existió una gran cantidad de proyectos que, pese a ser de inferior envergadura, fueron igualmente importantes. La alegoría de progreso lineal (por ejemplo, la utilización de palabras como «hito») para narrar la historia de la informática no es apropiada. Los progresos que tuvieron lugar en esta disciplina en la década de 1940 solían parecer más a un ejército en avance por un terreno escabroso.
El ENIAC, gracias al incremento radical de la rapidez con la que efectuaba las operaciones aritméticas, hizo que la operación de cálculo de estos aparatos se ubicara muy por delante de otras operaciones, como el almacenaje de datos o la generación de resultados, con lo que hubo que apresurarse para ubicar a éstas al mismo nivel. De todas estas operaciones, el mayor impedimento fue la operación por la que se ordenaba instrucciones al procesador. John Mauchly apuntó: «Únicamente se pueden realizar cálculos con gran rapidez si se ordenan instrucciones con gran rapidez».
Por ende, los proyectistas del ENIAC notaron con claridad que era requerido concebir una unidad electrónica interna de almacenaje de instrucciones. Todas las máquinas cuentan con software: un grupo de procedimientos que hacen posible utilizarlas. Previo a la electrónica, la velocidad de la maquinaria se encontraba en relación con la de los humanos. Este alejamiento surge por primera ocasión con los computadores, y en el reside el auténtica carácter revolucionario de la era digital.
El ENIAC, en virtud de la alta velocidad a la que realizaba operaciones aritméticas, puso a la programación en sitial cimero (no es casualidad que la frase «programar un computador» fuese acuñada por el grupo que diseño el ENIAC). El ENIAC, por ende, ocupa una posición paradójica, ya que se ha constituido como el centro de esta historia por sus defectos como por sus bondades.
No había programación, sino que se solía configurar de forma trabajosa por medio de la conexión de cables, que, de hecho, había que reconectar para toda nueva operación. Todo ello implicaba un problema que se demoraba minutos en solventar, por lo que su configuración podía tomar días. En contraste los semejantes electromecánicos del ENIAC, como el Harvard Mark I, podían ser programados en pocas horas pero demoraban días en solucionar las ecuaciones.
Al tomar forma el ENIAC, a inicios de la década de 1940, sus diseñadores se encontraban ya considerando en cómo sería la máquina que lo sustituiría. Recapitulando, era un equipo ideal para el trabajo que debían realizar personas entendidas en ingeniería eléctrica, matemáticas y lógica. De sus discusiones emergió la idea de diseñar un computador que tuviese un dispositivo de memoria dedicada, que guardase datos, pero que no forzosamente efectuase operaciones aritméticas o de otra clase.
Las instrucciones, así como los datos, se guardarán en esta unidad, y todos ellos podrían ser recuperados o guardados con gran rapidez. Este requerimiento emergió de la necesidad objetiva de ganar rapidez, como previamente apuntó Mauchly, al igual que del deseo de la ingeniería de contar con una unidad de memoria sencilla sin la complejidad extra de tener que dividirla y establecer un espacio distinto para cada clase de información.
De este simple concepto nació en mayor parte la capacidad de cálculo que vino después y que desde ese tiempo se ha vinculado a John von Neumann, quien se aunó al grupo del ENIAC y en 1945 redactó un informe acerca de su reemplazo, el EDVAC, detallando estos conceptos. No obstante, fue claramente un trabajo en equipo, que vino a tener al ENIAC, entonces en proceso de ensamblaje, como punto culminante.
Lo ventajoso de este diseño no sería de utilidad si no se hallaba una unidad de memoria con abundante capacidad para funcionar de forma segura, veloz y económica. Eckert se inclinaba por el empleo de tubos de mercurio que permitían el transporte de impulsos acústicos, empero Newman favorecía usar un tubo de vacío especial. Los primeros computadores que contaron con auténticos programas en su memoria para su operación empleaban tubos de mercurio o tubos de rayos catódicos reformados que guardaban información a manera de haces de carga eléctrica.
Estos métodos conferían una elevada velocidad, pero contaban con una capacidad limitada y eran costosos. Un gran número de ingenieros optó por un tambor magnético rotatorio que, a pesar de ser más lento, brindaba mayor seguridad. El Proyecto Whirlwind, del MIT, llegó a superar dicho impedimento cuando, a inicios de la década de 1950, su equipo concibió una forma de guardar datos en minúsculos núcleos magnéticos, unos fragmentos de material imantado con figura de rosquilla.
Generaciones: 1950-1970
Eckert y Mauchly no son únicamente célebres por sus aportes al diseño de computadores. Fueron de las contadas personas que, en aquel tiempo, procuraron el uso comercial para su creación, en vez de restringirse a su sola utilización a gran escala en la ciencia, la milicia o la industria. Los ingleses fueron los que primeramente crearon un computador con destino comercial: el LEO, una versión para comercializar del EDSAC, el cual se diseño para una compañía de catering denominada J. Lyons & Company Ltd., estaba operativo en 1951.
Pero así como sucedió con las invenciones de Babbage del siglo previo, los ingleses no estuvieron en la capacidad de mejorar esta extraordinaria innovación. En Estados Unidos, Eckert y Mauchly tuvieron que enfrentar un nivel de incredulidad similar al proponer la construcción de computadores con objetivos comerciales. Finalmente alcanzaron su propósito, pese a que dejaron de ser autónomos en el camino. Es un escepticismo justo, si nos percatamos de las dificultades existentes a nivel técnico para lograr que el equipo opere de forma debida.
UNIVAC al Ataque
Aun así, hacia la mitad de la década de 1950 Eckert y Mauchly lograron exponer un computador comercial voluminoso denominado UNIVAC, que fue recibido por parte de la veintena de clientes que lo adquirieron. Otras compañías, grandes y pequeñas, igualmente se incorporaron en el negocio de los computadores a lo largo de esa década, pero al culminar la misma, IBM se había puesto de forma clara a la cabeza.
Ello fue debido en gran parte a su excelente departamento de ventas, que solía asegurarse de que sus clientes vieran resarcida con resultados provechosos la enorme suma invertida en equipos electrónicos. IBM brindaba una línea de computadores electrónicos diseñada para sus clientes a nivel empresarial y científico, al igual que una línea, que resulto muy exitosa, de computadores pequeños y baratos, como el 1401. Para 1960 el transistor, inventado en los años 1940, operaba lo bastante bien como para sustituir a los delicados tubos de vacío de la era anterior.
La memoria de los computadores se basaba ahora en una estructura de núcleos magnéticos, tambores o discos de mayor lentitud y, finalmente, una cinta magnética de enorme capacidad. Para cargar información o programas en estas grandes computadoras aún se utilizaban tarjetas agujereadas, con lo que se garantizaba la continuidad con el aparato de Hollerith, que era el sostén de IBM.
Sistema IBM 360
Para 1964, IBM fusionó sus líneas de productos en su System/360, que no sólo englobaba el abanico completo de aplicaciones concernientes a la ciencia y los negocios (de allí su nombre), sino que igualmente fue presentado como una familia de computadores cada vez más voluminosos, siendo cada uno de ellos capaces de ejecutar el software que se programó para los modelos previos. Esto estableció un paso determinante que de nuevo transformó el sector, como lo hizo UNIVAC una década antes.
Con ello se llegó a reconocer que el software, que comenzó como una idea de último hora y al margen del diseño del medio físico, se estaba transformando de forma creciente en el motor que hacia impulsar los avances en informática. Tras IBM en el mercado comercial se encontraban los siete enanitos: Burroughs, UNIVAC, National Cash Register, Honeywell, General Electric, Control Data Corporation y RCA.
En Gran Bretaña, donde en los años 1940 estuvieron operativos los primeros computadores que incorporaron programas en su memoria, igualmente fueron desarrollados equipos comerciales, así como en Francia. Honrad Zuse, cuyo Z3 ya se encontraba operativo en 1941, asimismo creó una empresa, tal vez la primera a nivel mundial dedicada enteramente a la construcción y venta de computadores. Empero, excepto pocos casos, las ventas en Europa jamás se aproximaron a las de las compañías estadounidenses.
Los soviéticos, pese a que rivalizaban con Estados Unidos en el campo espacial, no pudieron lograr al parecido con los computadores. Apenas se complacieron con imitar la IBM System/360, con lo que apenas se podían beneficiar del software que otros habían programado. La razón que causó que la URSS se quedara a la zaga, pese a su grandiosidad técnica y particularmente matemática, sigue siendo un enigma.
Tal vez los responsables de planificación de la Unión Soviética vieron en los computadores un arma de doble filo; por una parte favorecerían la planificación estatal, pero por otra posibilitarían la compartición de información de forma descentralizada. Por supuesto, la ausencia de una economía de mercado poderosa, que fue la que impulsó los avances técnicos de UNIVAC e IBM, fue un factor determinante.
Cualquiera sea el caso, las fuerzas del mercado estadounidense se vieron potenciadas por las inmensas sumas de dinero que aportó el Departamento de Defensa, que financiaba la investigación informática para las denominadas operaciones de control y mando, al igual que para el aprovisionamiento y los sistemas de lanzamiento de misiles de a bordo.
El Miniordenador y el Chip
De haber permanecido las tecnologías de la información en la posición en la que se encontraban a mediados de la década de 1960, igualmente hoy hablaríamos de una revolución informática, de tal magnitud ha sido su impacto en la sociedad. Empero la tecnología no se quedo inmóvil; continuó avanzado a un ritmo cada vez mayor. Pasó una década previo a que el transistor emergiera de los laboratorios y comenzara a ser usado de modo comercial y práctico en los computadores.
Macrocomputadores
Ello afecto a los sistemas de las inmensos macrocomputadores ya citados, pero tuvo mayores repercusiones en los sistemas de menor envergadura. En 1965 surgieron varios equipos novedosos que brindaban elevada velocidad de proceso, fortaleza, un tamaño reducido y un precio asequible, lo que dio apertura a mercados totalmente nuevos. El PDP-8, que fue lanzado ese mismo año por una compañía denominada Digital Equipment Corporation, estrenó este tipo de minicomputadores. Desde allí surgieron una camarilla de fabricantes de miniordenadores en los suburbios de Boston.
Tanto en lo referente a personas como a tecnología, el sector de los minicomputadores es sucesor directo del Proyecto Whirlwind del MIT que financió el Departamento de Defensa. Cuando los proyectistas de computadores comenzaron a utilizar transistores tuvieron que hacer frente a un inconveniente técnico que en años previos había quedado oculto debido a la fragilidad de los tubos de vacío. Era la contrariedad que significaba montar, cablear y someter a pruebas circuitos con millares de componentes distintos: transistores, resistencias eléctricas y condensadores.
Entre las numerosas soluciones que fueron propuestas para el problema de las interconexiones se encontraban la de Jack Kilby, de Texas Instruments, y la de Robert Noyce, de Fairchild Semiconductor, los que registraron su patente propia por separado en 1959. Su invención fue conocida con la denominación de circuito integrado.
Al proseguir los pasos que se habían alcanzado con los transistores de silicio, estas compañías pudieron comercializar su invento de forma rápida: al finalizar la década de 1960 el chip de silicio había devenido en el primordial dispositivo en los procesadores de los computadores y asimismo había comenzado a remplazar a los núcleos de memoria.
Además de diseñar junto a Kilby el circuito integrado, Noyce realizó algo que definió la dirección de la ciencia informática. En 1968 se separó Fairchild y creó una novedosa compañía denominada Intel, destinada a la elaboración de chips de memoria para reemplazar a los núcleos magnéticos. El Valle de Santa Clara, en la península localizada al sur de San Francisco, ya era un núcleo de microelectrónica, pero el que Noyce estableciese allí Intel provocó que su actividad creciese de forma vertiginosa.
Inicios de Silicon Valley
En 1971 un articulista nombró a esta zona Silicon Valley: un titulo que hace alusión no únicamente a la industria informática establecida allí sino asimismo a la cultura emprendedora y libre que la potencia. A la mitad de la década de 1970 el predominio de IBM en el entorno informático se vio desafiado desde tres frentes. De Silicon Valley y los suburbios de Boston arribaban noticias del desarrollo de sistemas modestos, pero con una capacidad de procesamiento cada vez más elevada.
Una denuncia antimonopolio de 1969 arribó del Departamento de Justicia de Estados Unidos en la que se imputaba a IBM de control injusto del sector. Finalmente, de aquellos ingenieros de informática que indagaban sobre software emergió la idea del uso interactivo de los computadores por medio de un proceso al que se llamaba tiempo compartido. Éste concedía a varios usuarios coincidentes la noción de que aquel computador enorme y caro era su equipo de uso personal.
El tiempo compartido proveía otra modalidad de colocar capacidad de proceso en manos de nuevas agrupaciones de usuarios, pero la propuesta del computador de uso general asequible, semejante a la rejilla que distribuye electricidad en nuestras viviendas, no llegó a concretarse.
Un elemento importante de esta mudanza hacia la informática interactiva fue la concepción, en 1964, del lenguaje de programación BASIC en el Dartmouth College de New Hampshire, con el que los alumnos de humanidades, ciencias o ingenierías técnicas hallaron que a sus computadores se podía acceder más fácilmente que a los de otras facultades, en los que debían entregar sus programas en forma de lote de tarjetas agujereadas, codificadas en lenguajes más complejos y aguardar a que llegase su turno.
El Computador Personal
Las variados comentarios a la metodología de cálculo de las macrocomputadoras confluyeron en 1975, fecha en que una compañía poco citada de Nuevo México lanzó al mercado el Altair, que fue anunciado como el primer dispositivo informático con un precio inferior a los 400 dólares. Este equipo apenas se podía denominar computador y había que agregarle muchos más componentes para considerarlo un sistema de utilización práctica.
No obstante, el anuncio de Altair provocó un estallido de dinamismo creativo que para 1977 había dado origen a sistemas con capacidad de realizar tareas de utilidad y que usaban chips de silicio de vanguardia para el procesador y la memoria, un disquete (creado en IBM) para la memoria masiva, y el lenguaje de programación BASIC para posibilitar que los usuarios redactasen sus propios programas de software.
Lenguaje Basic
Esta variedad de BASIC fue creada por un modesto equipo que dirigió Bill Gates, quien había abandonado sus estudios en Harvard y se había desplazado a Nuevo México para el desarrollo del software para Altair. Gracias a ello se pudo despojar a IBM de la supremacía en el sector informático. No obstante, a todos los colosos que se enfrentaron a IBM les fue sorprendentemente mal en la siguiente década. Inclusive, a inicios de los noventa, la Digital Equipment Corporation, a quien se le debe en gran parte la existencia del computador personal, estuvo a punto de fracasar.
Los computadores personales eran de un precio bastante más asequible, si bien equipos como los Altair no eran convenientes para quien no estuviese muy entendido en la electrónica digital y aritmética binaria. En 1977 surgieron en el mercado diversos equipos de los que se afirmaba que eran de fácil instalación y uso como cualquier otro electrodoméstico.
El de mayor popularidad fue el Apple II, a cuyos creadores, Steve Jobs y Steve Wozniak, se les podía comparar con Eckert y Maunchy de Silicon Valley: uno como destacado ingeniero y el otro como visionario que vislumbró el potencial de estos aparatos si se hacían asequibles para el gran mercado. En 1979 hizo su aparición un programa denominado Visicalc para el Apple II: manipulaba filas y columnas de números que los contabilistas solían conocer como hojas de cálculo, únicamente que con mayor velocidad y facilidad de lo que nadie nunca hubiese imaginado.
Una persona con Viscalc y el Apple II podía ahora realizar cosas que no eran sencillas ni para una macrocomputadora. Al fin, luego de décadas de promesas, el software, esto es, los programas que logran que los computadores hagan lo que uno desee, ocuparon un sitial cimero, el lugar que justamente les correspondía. Una década más adelante vendrían a ser las compañías de software, como Microsoft de Bill Gates, las que encabezarían las noticias acerca de los avances informáticos.
Computación en el Hogar
Pese a su fama de calmosa y burocrática, IBM respondió velozmente al desafío de Apple y lanza al mercado su propia computadora personal o PC en 1981. Este PC contaba con una arquitectura abierta que posibilitaba a otras compañías proveer software, dispositivos periféricos y tarjetas de circuitos conectables, algo que se distanciaba completamente de su filosofía acostumbrada, pese a que es muy frecuente en el sector de los minicomputadores y otros computadores personales.
Este equipo fue de un éxito comercial superior al esperado, ya que la marca IBM otorgaba credibilidad al producto. Utilizaba un procesador avanzado de Intel con el que podía acceder a mucha más memoria que sus competidores. El sistema operativo fue suministrado por Microsoft y adicionalmente fue comercializada una aplicación de hoja de cálculo, el Lotus 1-2-3, para este PC y los equipos compatibles con él.
Apple rivalizó con IBM en 1984 con su equipo Macintosh, con el que logró sacar de los laboratorios la noción de conexión del usuario y lo hizo accesible al público general. La alegoría de observar archivos en la pantalla como una sucesión de ventanas que se sobreponen, a las que el usuario puede acceder con un puntero denominado ratón fue aplicada por vez inicial en la década de 1960 en laboratorios financiados por el ejército.
A inicios de los setenta, un grupo de excepcionales científicos en un laboratorio de Silicon Valley de la Xerox Corporation logró perfeccionar dicho concepto. Más fue Apple quien lo comercializó de forma exitosa; Microsoft fue detrás con su particular sistema operativo, Windows, que fue liberado casi coincidencialmente con el Macintosh, pero que solo comercializó de forma exitosa hasta 1990. Durante la siguiente década continuó la contienda entre la arquitectura de Apple y la que promovía IBM, que empleaba procesadores de Intel y programas de Microsoft.
Las Primeras Conexiones de Red
A lo largo de la década de 1980 los computadores personales aproximaron la informática a la gente común. Numerosas personas los usaban en el trabajo, y unos pocos igualmente contaban con uno en casa. La tecnología, pese a que aún algo asombrosa, ya no era un enigma. Pese a que los computadores personales aparecían en la prensa diaria, las prestigiosas macrocomputadoras continuaban dominando la industria en lo referente al valor en dólares del equipo y el software incorporado.
La Interactividad
A pesar de que no podían rivalizar con los usos de los programas para PC como hojas de cálculo y procesadores de texto, sí eran requeridas para las operaciones que demandaban el manejo de enormes cantidades de datos. A inicios de la década de 1970 estos computadores comenzaron a sustituir las tarjetas agujereadas por procedimientos interactivos ejecutados mediante el teclado y otros dispositivos de ingreso de datos que solían tener la misma apariencia física que la de un computador personal.
Los gigantescos sistemas de bases de datos en línea se transformaron en algo usual y gradualmente comenzaron a convertir las actividades comerciales y gubernamentales de las naciones industrializadas. Entre las aplicaciones más notorias se encuentran los sistemas de reservaciones aéreas, los informativos para el cliente y de administración para las compañías de servicios públicos y de seguros, al igual que los inventarios informatizados para negocios al detal.
La unión de sistemas de bases de datos y de facturación a tiempo real, de números telefónicos gratis, de conformación de tarjetas de crédito y facturación telefónica convirtió a la modesta rama detallista de venta por correo en una de las enormes fortalezas de la economía estadounidense. Para la totalidad de estas actividades se requerían de macrocomputadoras enromes y caras y que contaran con un software programado a la medida, lo cual implicaba un gran inversión para el cliente.
Se estaba tentado a conectar una serie de computadores personales económicos que ejecutasen programas de software barato y de poco mantenimiento, pero ello no era factible. De engancharse un conjunto de caballos a un carro puede que sirva para arrastrar mayor peso, pero no se logará con ello que el carro avance más rápido. Y hasta esto último cuenta con limitaciones, pues al conductor cada vez le será más dificultoso que todos los caballos jalen en la misma dirección.
La dificultad con la informática era similar y quedó expuesta en la ley de Grosch: por la misma cantidad de dinero, se desempeña mejor un computador grande que dos pequeños. Pero todo ello iba a ser alterado. En el Centro de Investigación de Palo Alto de Xerox en 1973, en el cual se habían alcanzado numerosos avances vinculados con la conexión de usuario, se creó una metodología de conexión de redes que puso en desuso la ley de Grosch.
Conexión Ethernet
Sus diseñadores la denominaron Ethernet, en referencia al medio (éter) que, de acuerdo a los físicos del siglo XIX, servía para transportar la luz. Ethernet posibilitó la conexión entre sí de los computadores pequeños de una oficina o edificio, y con ello la compartición de la memoria masiva, las impresoras láser (otra creación de Xerox) y que los usuarios de los computadores intercambiasen mensajes a través del correo electrónico.
De forma simultánea a que Ethernet posibilitase el enlace de redes local, un proyecto subvencionado por la Agencia de Proyectos de Investigación Avanzada en Defensa (ARPA) hacía lo conveniente para conectar computadores dispersos desde el punto de vista geográfico. Su objetivo era que las comunicaciones militares se conservaran seguras en situaciones de guerra, cuando los segmentos de una red podían ser arrasados. Las redes militares iniciales que procedían del Proyecto Whirlwind contaban con unidades de control central, por lo que era posible que dichos centros de control de la red fuesen atacados.
Dichas unidades se localizaban en edificios carentes de ventanas, robustecidos con esqueletos de hormigón, pero de padecer daños, la red usualmente dejaba de funcionar. ARPA subvencionó el trabajo de un equipo de investigadores que diseñaron una alternativa en la que se separaba la información en paquetes, cada uno los cuales obtenía la dirección de un computador receptor y solían circular a través de la red de computadores. Si uno o más computadores en la red no estaban operativos, el sistema conseguiría otra ruta.
Primeros Paso de Internet
El receptor juntaba los paquetes y los transformaba en una copia exacta del documento original que se transmitió. En 1971 ARPANET disponía de quince nodos de conmutación distribuidos por todo el país y en los nueve años que siguieron creció a enorme velocidad. Inicialmente tenía como objeto remitir grupos de datos grandes o programas de un nodo a otro, pero luego de que la red entrase en operación la gente comenzó a servirse de ella para intercambiar mensajes cortos.
En un principio era un procedimiento laborioso, empero en 1973 Ray Tomlinson, un ingeniero de la compañía Bolt Beranek and Newman de Cambridge, Massachussets, logró que ello cambiara. Tomlinson concibió la simple idea de dividir el nombre del destinatario del mensaje y el de su computador con el símbolo @, uno de los escasos caracteres no alfabéticos que se podían conseguir en el panel de control del teletipo que ARPANET utilizaba en esos tiempos. Y así es como nació el correo electrónico, y con él, el símbolo de la época de los enlaces de red.
La presión que se ejerció para que ARPANET pudiese ser dedicada a la remisión de correos electrónicos y a otros servicios que no fuesen militares fue tan enorme que la red acabó por separarse. Una sección permaneció bajo el control militar; la otra fue cedida a la National Science Foundation (NSF), una institución civil subvencionada por el Estado que financió planes de investigación no únicamente para extender esta red, sino igualmente para lograr que se interconectaran los distintas clases de redes (por ejemplo, las que empleaban radios en vez de cables).
Los investigadores comenzaron a denominar como Internet al producto de todo ello, para reflejar así su carácter heterogéneo. En 1983 las redes admitieron un grupo de normativas para la transmisión de datos con esta interconexión denominada Protocolo de Control de Transmisión/Protocolo de Internet (Transmission Control Protocol/Internet Protocol, TCP/IP). Estos protocolos continúan usándose actualmente y conforman el fundamento de la Internet del presente.
Las redes de conexión del tipo local y remoto se adaptaron perfectamente con otros cambios que se encontraban en desarrollo en el software y el hardware de los computadores. Apareció un nuevo tipo de equipo de nombre estación de trabajo, que en contraste a los PC se ajustaba mejor a las enlaces de redes. Otra diferencia sustancial es que empleaban un sistema operativo de nombre UNIX, que si bien era de complicado manejo para un usuario normal, se acoplaba de buena manera a las conexiones de red y a otros programas de vanguardia.
UNIX fue diseñado por los laboratorios Bell, la división dedicada a la averiguación del monopolio telefónico de AT&T que es regulado por el gobierno de Estados Unidos. Las agrupaciones de estaciones de trabajo, enlazadas entre ellas de modo local por Ethernet, y por Internet a conjuntos de terminales semejantes a nivel mundial, finalmente constituían una alternativa verdades a las enormes instalaciones de macrocomputadoras.
La Era de Internet
La National Science Foundation (NSF), una agencia del gobierno de Estados Unidos, no autorizaba el empleo comercial de la sección de Internet que se encontraba bajo su control. No obstante, sí estaba en su manos permitir la utilización de los protocolos de Internet a quien deseara usarlos por muy poco dinero o de manera gratis, en contraste con lo que brindaban compañías de computadores como IBM. Con el incremento de usuarios de Internet, la NSF se vio apremiada para ceder su administración a empresas comerciales.
Inicios
En 1992 el Congreso estadounidense avaló una legislación con la que finalizó de hecho la restricción de su uso comercial, por lo es posible señalar que el beneplácito de esta ley signó el inicio de la era de Internet. Ello no es totalmente cierto, ya que el gobierno de Estados Unidos se reservó el dominio sobre el programa de direcciones de Internet, entre ellos, los sufijos .com, .edu, etc., que posibilitan a los computadores conocer adónde se remite un mensaje electrónico.
A inicios del siglo XXI, un grupo de naciones demandó que tal control se trasladara a la Organización de las Naciones Unidas, pero hasta la fecha Estados Unidos se ha mostrado contrario a ello. Es verdaderamente un recurso que se brinda a todos los países, pero el registro central de las denominaciones de dominio lo administra una compañía privada a la que el Departamento de Comercio adjudica dicha autoridad. Esta actuación política se vio suplementada por avances importantes en la tecnología informática, lo que implicó un novedoso impulso para la divulgación de Internet.
En 1990 las onerosas estaciones de trabajo de UNIX habían dado paso a los computadores personales que usaban procesadores de vanguardia, en particular un procesador de nombre Pentium, que proveía Intel. En lo referente al software, surgieron versiones novedosas del sistema operativo Windows de Microsoft en las solían venir instalados los protocolos de Internet y otras aplicaciones de enlace de redes. Esta unión concedió a los PC un poder similar al de las estaciones de trabajo.
No es frecuente conseguir UNIX en un PC, pese a que los servidores de elevada potencia y los llamados routers que hacen las conmutaciones esenciales de Internet lo siguen empleando. Una variante de UNIX denominada Linux, concebida en 1991 por Linus Torvalds en Finlandia, fue presentada como una opción gratuita o muy económica al sistema Windows de Microsoft. Tanto así que Linux como el software asociado a él lograron captar una cuota de mercado modesta, si bien relevante. Estas aplicaciones pasaron a ser conocidas como software de código abierto, el cual se reconoce como gratis, pero no sin limitaciones.
Entretanto esta actividad solía desarrollarse en los laboratorios de gobiernos y universidades, los usuarios de PC comenzaban a desnudar las ventajas de los enlaces de red. Los primeros PC como el Apple II no contaban con una importante capacidad para conectarse a una red, pero apasionados con extraordinaria imaginación lograron desarrollar modalidades ingeniosas de comunicarse.
Conexión por Modem
Se sirvieron de un dispositivo denominado modem (modulador-demodulador) para enviar datos informáticos de forma lenta por medio de las líneas telefónicas. En esta compañía se vieron favorecidos por una resolución tomada por el monopolio telefónico de Estados Unidos, de acuerdo a la cual los datos que eran enviados por líneas telefónicas serian igualmente considerados como llamadas de voz. Las llamadas a nivel local eran, en efecto, gratis en Estados Unidos, pero las llamadas de larga distancia eran costosas.
Estos apasionados de los PC consiguieron maneras de reunir mensajes de forma local y luego remitirlos de un lugar a otro del país al anochecer, horas en la que las tarifas eran más económicas. Igualmente nacieron compañías comerciales para atender dicho mercado; rentaban números telefónicos en las zonas metropolitanas y recaudaban una tarifa de los usuarios por la conexión.
Uno de los de mayor importancia fue The Source, que se creó en 1979 y que tras enfrentar un lapso de problemas financieros se reestructuró y transformó en la base para América Online, el servicio de enlaces de red personal de mayor popularidad desde la década de 1980 hasta fines de la de 1990. Estos servicios comerciales y personales son convenientes ya que con ellos los enlaces de redes obtuvieron una dimensión social. ARPANET era una red del ejército, y sus encargados reprobaban su utilización frívola y comercial.
Empero las redes personales, como los teléfonos privados mediante los que se transmitían dichos mensajes, se usaron desde el inicio para chats, discusiones informales, noticias y servicios comerciales. Una de las redes de uso comercial, Prodigy, igualmente incorporaba gráficos a color, otro de los componentes esenciales de la Internet actual. Las crónicas que se hacen sobre Internet resaltando la relevancia de ARPANET suelen estar en lo correcto: ARPANET fue su antecesora técnica, y sus protocolos nacieron de la labor investigativa del ARPA.
No obstante, para que una crónica de Internet sea integra, igualmente hay que tener presente su dimensión social y cultural, la cual apareció desde Prodigy, AOL, al igual que de la colectividad de usuarios simpatizantes. Hacia fines de la década de 1980 era claro que las redes de computadores resultaban beneficiosas para hogares y oficinas. Aún así, la red que se estaba conformando con el apoyo de la National Science Foundation, era una de las numerosas aspirantes.
Los reportes comerciales de aquel tiempo amparaban un tipo de red totalmente distinto, se hablaba específicamente de la ampliación de la televisión mediante cable hasta lograr una multitud de canales novedosos, quinientos, de acuerdo a un pronóstico generalizado del ese tiempo. Esta reciente configuración de la televisión posibilitaría cierto nivel de interactividad, pero ello no podría ser posible con un computador personal hogareño. Es un producto lógico de los propósitos de mercadeo de las empresas de televisión y entretenimiento.
Entre la colectividad de científicos y profesionales de la informática, los enlaces de red se lograrían por medio de una agrupación bien estructurada de protocolos denominado interconexión de sistema abierto (Open Systems Interconection, OSI), que sustituiría a Internet, de configuración más abierta. Nada de ello llegó a suceder, en gran parte debido a que Internet, en contraste a otros proyectos, fue diseñada para posibilitar el acceso a redes distintas sin estar asociada a un monopolio controlado por un gobierno, una corporación empresarial privada o un sector específico.
Internet Libre
A la mitad de la década de 1990 redes privadas como AOL constituyeron conexiones con Internet y los protocolos OSI se hicieron obsoletos. De forma paradójica, ya que Internet era de acceso libre y no había sido diseñada para una utilización comercial específica, pudo transformarse en el fundamento de tanta actividad comercial toda vez que se despojó del control gubernamental de Estados Unidos, luego de 1993. Para el verano de 1991 científicos del Laboratorio Europeo de Física de Partículas CERN lanzaron un programa denominado World Wide Web.
Se trataba de un conjunto de protocolos que funcionaban por encima de los protocolos de Internet y posibilitaban un acceso nada estricto y generalizado a la información disponible en la red en distintos formatos. Así como sucedió con Internet, esta facilidad de acceso a toda clase de formatos, dispositivos, sistemas operativos y normativas fue lo que permitió que su utilización se generalizase velozmente. Hoy día y para la mayoría de los usuarios, World Wide Web e Internet son equivalentes; aunque es más adecuado señalar que esta última fue la base de la primera.
El más reconocido diseñador de la World Wide Web fue Tim Berners-Lee, quien en aquel tiempo laboraba en el CERN. Apunta que lo que le inspiró su invención fue observar cómo científicos de todo el orbe debían reunirse en la sede del CERN para discutir temas científicos. Adicional a la World Wide Web, Berners-Lee igualmente saco adelante otro programa por medio del que se facilitaba el acceso a ella desde un computador personal. Esta aplicación llamada buscador, fue un elemento clave extra en la popularización del empleo de Internet.
Su buscador sólo fue de uso restringido y fue raudamente sustituido por uno más complejo de nombre Mosaic, que fue creado en 1993 en la Universidad de Illinois, Estados Unidos. Luego de un par de años los más importantes creadores de Mosaic se trasladaron de Illinois a Silicon Valley, California, donde iniciaron una empresa que se denominó Netscape. Todo usuario particular podía descargar su buscador, Navigator, de forma gratuita, pero para las empresas tenía un costo.
El éxito de Netscape de forma casi instantánea supuso el inicio de la burbuja de Internet, gracias a la cual cualquier cotización que estuviese aún remotamente vinculada con ella adquiría unos precios exagerados. Mosaic se desvaneció, pero Microsoft adquirió sus derechos y lo transformó en el fundamento de su propio buscador, Internet Explorer, que actualmente es el medio más empleado para acceder a la Web y a Internet en general.
Conclusión
La historia de la informática comenzó de forma gradual y metódica, para después dispararse con el arribo de los enlaces de red, los buscadores y, actualmente, con los dispositivos móviles. Toda tentativa por trazar su recorrido reciente está destinado al fracaso. Esta energía que la propulsa viene precisada en la Ley de Moore, uno de los creadores de Intel, de acuerdo a la cual los chips de silicio doblan su capacidad cada dieciocho meses.
Ello es lo que viene sucediendo desde 1960, y, pese a que regularmente se presagia que esto culminará pronto, al parecer aún no es así. Igualmente, la capacidad de la memoria masiva, en particular la de los discos magnéticos, y del amplio de banda del cableado de telecomunicaciones y otros canales ha ido incrementándose a un tasa exponencial.
Todo ello logra que los ingenieros se encuentren atrapados en una rutina de la que no pueden escapar: al pedírseles que diseñen un dispositivo no lo hacen considerando la capacidad de los chips actualmente disponibles, sino en el poder que calculan obtendrán cuando el producto sea comercializado, lo cual, al mismo tiempo, fuerza a los fabricantes de chips a elaborar uno que complazca dichas expectativas. En la prensa general y técnica siempre se pueden conseguir pronósticos en los que se señala que esto algún día se terminará: hasta tanto los límites de la física cuántica imposibiliten el diseño de chips con mayor densidad.
No obstante, y pese a todos esos vaticinios que apuntan que la Ley de Moore finalizará, aún no ha acontecido, y al tanto siga estando vigente es imposible prever qué rumbo tomará la informática, inclusive, el año próximo. Pero esto es lo que hace de esta época una de las más excitantes de la historia, mientras tanto uno tenga la capacidad de sobrellevar la rapidez a la que son producidos los cambios tecnológicos.
También te pueden interesar estos otros artículos: