La informática, una herramienta vital hoy en día, muy necesaria para trabajar, estudiar, entretenerse y conectarse con otros. La sociedad del siglo XXI integra la informática y el Internet para satisfacer sus necesidades actuales y hacer nuestra vida más sencilla.
Pero, ¿qué dirías si te contara que la informática es incluso anterior a las computadoras? El término, también llamado computación, data de la antigüedad, ya que refiere a los distintos métodos utilizados para almacenar, procesar y transmitir información. Hace siglos se utilizan también distintos sistemas y máquinas que brindaban soporte para distintas actividades, como las matemáticas.
A medida que pasaban los siglos y llegaron los nuevos avances tecnológicos poco a poco, las distintas máquinas fueron evolucionando hasta transformarse en los ordenadores sofisticados y multifacéticos que tenemos hoy en día.
Las máquinas del pasado, la computación de hoy
En el siglo XVII ya se utilizaban los computadores, personas designadas a llevar las cuentas y también comenzaron a verse las primeras máquinas calculadoras, que asistían a las personas para hacer cálculos complejos. A esta etapa se la conoce como “la primera generación” de la informática, en donde las máquinas cumplían un rol muy limitado en la sociedad.
Más adelante en el tiempo, Herman Hollerith idea el sistema de tarjetas perforadas en Estados Unidos, que supuso un cambio drástico para la industria. Este sistema, de 1889, usaba las tarjetas como método de codificación de datos por medio de patrones y también permitía la clasificación y el recuento de totales y subtotales.
Gracias a que Hollerith vió el potencial en su sistema para usar en otros campos por la capacidad de clasificar, recopilar y tabular información, funda en 1911 la empresa Computing-Tabulating-Recording Corporation. Pero en el año 1924 es dirigida por Thomas Watson y se transforma en International Business Machines (I.B.M.), una empresa que hoy en día es líder en el rubro.
A partir de este avance, se comienza a ver el verdadero potencial de las computadoras para los estados, ya que este sistema era usado por la Oficina de Censos de Estados Unidos para realizar el censo de la población.
Para los años 30, las máquinas IBM eran usadas en todas las agencias gubernamentales estadounidenses, pero también en países extranjeros, generalmente para obtener datos estadísticos. La empresa entonces se dió cuenta de que con pequeños cambios, sus máquinas podían ser usadas para resolver problemas científicos, tanto en el campo de la ciencia como en la educación.
El inicio de la segunda guerra mundial y la necesidad de producir nuevas tecnologías y armas para ganar el conflicto, beneficia a la industria de las computadoras. Se comienzan a desarrollar máquinas para resolver cálculos más complejos, analizar redes, comunicar, y más. Pero había un problema, las máquinas hasta ese entonces eran todavía mecánicas, utilizaban engranajes, ruedas, palancas y relés lo que las hacía muy lentas.
A partir del año 1940 se comienzan a desarrollar proyectos con un mecanismo eléctrico, ya que ésto otorgaba mayor rapidez. Así se pudieron agregar funciones de cálculo de alta velocidad, almacenamiento de datos y producción de resultados en los ordenadores.
La nueva era de los ordenadores
Gracias a la suma de funciones y los circuitos eléctricos, se comienzan a desarrollar los primero ordenadores de uso comercial para los negocios, ya que antes se usaban únicamente en el ámbito militar, científico o industrial a gran escala.
Surgieron entonces en 1951 tres proyectos de ordenadores que fueron los primeros en estar disponibles en el mercado. En Estados Unidos, Ferranti Mark I y UNIVAC I, ordenadores de uso general, y en Inglaterra, Leo I, el primer ordenador dedicado al mundo de los negocios.
Así es como nuevas empresas fueron desarrollándose en el nuevo rubro de los ordenadores comerciales, pero la famosa IBM aún se encontraba a la cabeza, ofreciendo ordenadores electrónicos para rubros empresariales y científicos; y también contando con una línea de ordenadores pequeños y económicos de gran éxito, como el 1401.
Años más tarde, en 1964, la empresa presenta la línea de productos System/360, que se trataba de ordenadores más grandes, pero que podían completar tareas tanto de ciencias como de negocios. Con este producto, empieza a tomar relevancia el concepto de software como el motor de esta tecnología, dando lugar a las primeras máquinas programables, que permite que el usuario pueda modificar la secuencia a realizar de la máquina.
Avanzando cada vez más deprisa y con mayor competencia, comienzan a verse nuevas empresas y proyectos que revolucionan el sector, como la propuesta de Digital Equipment Corporation, ofreciendo al mercado en 1965 un ordenador con mayor velocidad de procesamiento, solidez, de tamaño reducido y también un precio económico: el PDP-8.
Con la creación del chip de silicio en 1960 y la fundación de Intel en 1968, los chips de memoria comienzan a sustituir a los núcleos magnéticos, dándole mayor posibilidades a los ordenadores. A partir de este momento, es cuando se comienza a conocer al Valle de Santa Clara en California, donde radican la mayoría de las empresas de microelectrónica, como “Silicon Valley” destacando la cultura emprendedora del país, allí concentrada.
El ordenador personal
Para esta época, las ciencias de la computación comenzaron a formar una disciplina en sí misma, destacando el uso y entendimiento de las computadoras electrónicas. Los ordenadores ya eran capaces de ejecutar muchas tareas distintas, utilizando el chip de silicio como procesador y memoria.
Además, surge el disquete, creado por IBM, para la memoria de masa y el lenguaje de programación BASIC, de la cual participa en su creación el famoso Bill Gates, que permite que el usuario escriba sus propias aplicaciones de software.
Con estos avances, la empresa Altair lanza al mercado en 1975 un equipo informático de menos de 400 dólares, lo que abrió el mercado para los ordenadores caseros por su utilidad y alcance económico. Sin embargo, estas máquinas no eran adecuadas para el público general sin conocimientos ajenos a la electrónica.
Allí es donde la revolucionaria empresa Apple, fundada por Jobs y Wozniak, vió la oportunidad y lanzó en 1977 el ordenador Apple II, un aparato que podía ser usado por todo el mundo. Más tarde lanzaron el programa Visicalc, que a través de hojas de cálculo, permitía realizar operaciones con rapidez y facilidad, superando ampliamente a las macrocomputadoras.
La pionera empresa IBM no quiso quedarse atrás, por lo que lanzó en 1981 su PC, con una arquitectura abierta para que las empresas pudieran suministrar su propio software, un equipo periférico y tarjetas de circuitos conectables. Además, contaba con un procesador avanzado de Intel, lo que le daba más memoria.
En 1984, Apple se establece como una empresa de vanguardia con el ordenador personal Macintosh, que saca de los laboratorios el concepto de interfaz de usuario, llevándolo al público general. Usaba el concepto de ver los archivos como una serie de ventanas que se superponen e incorpora el cursor al funcionamiento de los ordenadores. También ese año Microsoft, la empresa fundada por Bill Gates, lanza su propio sistema operativo Windows, comercializandose con fuerza a partir de 1990.
Desde las primeras computadoras humanas hasta los ordenadores portátiles, el campo de la informática ha ido evolucionando constantemente para satisfacer las demandas de la sociedad. Su desarrollo sin dudas se vió impulsado por la importancia de los ordenadores en los gobiernos, pero también por las amplias posibilidades que ofrecía esta tecnología para la vida diaria. Con la gran variedad de ordenadores personales y la llegada de Internet, la informática ha marcado un nuevo rubro que la ubica en el centro de casi todas las actividades actuales.
Si ha resultado interesante compártelo para que mas personas puedan aprender la historia de la informática!
Dejar una contestacion