La Historia de la informática por YEABIT

El uso de la informática

Oh!!! La informática: sin ella la facilidad con la que opera nuestro mundo moderno no sería posible. Las pantallas de nuestra edad digital no serían tan rápidas a la hora de permitirnos navegar en Internet, no existirían para nada los juegos de vídeo ni mucho menos tendríamos smartphone para comunicarnos con personas ubicadas al otro lado del mundo.




La informática es considerada para muchas personas que se mueven en el sector de los sistemas, como el triunfo de la inteligencia humana y la administración de la información. Gracias a la informática podemos contar con sistemas de inteligencia realmente optimizados para facilitar nuestras actividades cotidianas.

Pero aunque muchos piensen que la informática se centra solo en cuestiones relativas a software y programas que se disfrutan a través de una pantalla, lo primero que hay que destacar es que la informática también posee un fuerte trabajo de investigación de desarrollo en materia de hardware.

Por eso, el hardware es el cerebro mismo de la informática, el software mientras tanto son sus propias neuronas.

La historia del primer computador del mundo

En materia de desarrollo de software, la humanidad lleva menos de un siglo de trabajo y gestión al respecto. En cambio, en materia de creación de productos que procesen información, sí se cuenta con una larga trayectoria. Por ejemplo, los chinos tenían para el año 3.000 antes de Cristo un sistema sofisticado de cálculo.

Con esa misma idea el famoso Blaise Pascal, logró en el año 1642 patentar lo que sería una calculadora personal, dotada de un gran número de tuercas y piñones. Y se habla de esto como un invento informático en tanto se presenta como un sistema que permite un fácil procesamiento de la información.

Historia de la informatica con fotos
Una Pascalina conservada en el Museo de Artes y Oficios de París. La Pascalina fue la primera calculadora que funcionaba a base de ruedas y engranajes

Años más tarde, el señor Charles Babbage artículo lo que sería una autentica maquina de cálculo y analítica, capaz de dar respuestas rápidas a ciertos ejercicios matemáticos. Hay que aceptar que esto hace parte de la historiad de la informática, porque ya en estos intentos se empieza a crear una relación entre el comportamiento de una maquina y los algoritmos que puede ejecutar.

la primera computadora del mundo
El primer ordenador del mundo, Maquina Analítica de Charles Babbage

La propuesta de Charles Babbage ocurrió hacia el año de 1833. Solo hasta un siglo más tarde, todo lo logrado por este hombre empezó a tener la forma que posee hoy en día. Los primeros ordenadores comenzaron a ser desarrollados a partir del año de 1937.

El efecto de la Segunda Guerra Mundial

Desde el año 1937 se le dio funcionalidad a los algoritmos de una maquina a través de la visualización ofrecida por una pantalla. Es decir, se adoptó lo ya alcanzado a través de las primeras pantallas de televisión y se creó una relación con maquinas de un enorme peso y tamaño. Maquinas que podían ocupar el espacio de una habitación personal.

El enfrentamiento de las naciones en la Segunda Guerra Mundial, exigió que se trabajara más en el diseño de maquinas efectivas en el procesamiento de la información y fue así como se intensificó el sueño de tener ordenadores mejor optimizados. En las pantallas empezaron a tener protagonismo los primeros software; programas que también se enfocaron en el almacenamiento de la información.

Pero tras el efecto de la Segunda Guerra Mundial y la presencia de la Guerra Fría, obligó a que gobiernos como Estados Unidos y Rusia trabajaran con mayor intensidad. De hecho, fue en la misma Guerra Fría cuando las fuerzas militares de los Estados Unidos lograron crear un sistema que permitiera emitir información cifrada de un equipo a otro, a pesar de las largas distancias.




Para ello se involucró el rendimiento de las líneas telefónicas. ¿Tienes idea de lo que supuso esto en ese momento? Ni más ni menos que los primeros pasos de lo que años más tarde sería denominado como Internet.

Los primeros sistemas operativos

Ahora bien, los primeros ordenadores se enfocaron en realidad actividades específicas como permitir escribir o realizar cálculos matemáticos. Su funcionalidad era mucho más mecánica de lo que representarían hoy en día: software optimizados para toda clase de actividades y telecomunicaciones.

Fue un periodo importante porque se trabajó en todo lo relativo a hardware, creando sistemas de almacenamiento. Pero hacía aun falta una solución que permitiera potenciar dichos equipos y ofrecer mayores interacciones. Fue así como se ensamblaron los primeros sistemas operativos del planeta.

El sistema operativo, tan reconocidos hoy en día con los nombres de Windows, MAC o Linux, entre otros, fueron programas desarrollados para darle uso total a todo el hardware existente en su momento. Programas que traducían todo el rendimiento del hardware a través de la nitidez de una pantalla.

La empresa Microsoft fue en su momento la que lidero esta iniciativa, haciendo uso del MS-DOS (MicroSoft Disk Operative System). Aquel sistema operativo ocurría más que todo en una pantalla a blanco y negro. Y estuvo listo para los ordenadores para el año de 1981.

historia de la informatica
Sistema operativo Microsoft MS-DOS

Diez años más tarde, saldría al mercado la versión de Windows 3.x. Ya en este punto de la historia, la informática había logrado fusionar el concepto de las pantallas de televisión, con el rendimiento de un hardware mucho más efectivo, para que un usuario disfrutara de un sistema operativo dotado de una gran diversidad de programas (software).

historia de la informatica
Windows 3.1 1985 – 1993

El inicio de una nueva era

Para crear un sistema operativo, además de contar con toda una infraestructura en hardware se necesita de trabajar fuertemente a través de códigos y algoritmos. Los creadores de Linux, Windows o MAC, en su momento, pasaron horas y horas creando líneas de código que le dieran sostenibilidad al sistema.

Desarrollar código y permitir que este cumpla una misión ha sido la misión que siempre ha caracterizado a un desarrollador de sistemas, para así explotar todas las virtudes y alcances que tiene un hardware, tanto a la hora de almacenar información como también para cumplir determinadas operaciones.

Cuando Windows ofreció al mercado el sistema operativo, ya existían los denominados lenguajes de desarrollo. Uno de ellos fue el lenguaje de desarrollo B, que después fue optimizado para convertirse en el lenguaje C. Años más tarde C se transformaría en C++ y este a su vez en C#.

Con estos lenguajes de desarrolló se empezó a estructurar la lógica misma, el esqueleto digital que sostiene a los software que hoy en día existen. Y es precisamente estos lenguajes de desarrollo lo que potenciaron a lo que hoy en día es la era de la informática.

El hardware y la optimización digital





Sí, por supuesto, el desarrollo de hardware continúo prosperando. Las empresas de desarrollo de equipos lo continuarán haciendo porque ello define el rendimiento y lo sofisticación que alcanza un software. Además, supone un mercado que no se puede descuidar y que cada vez es más exigente.

Cuando en el año de 1999, la empresa Intel dio a conocer el procesador Pentium III el revuelo que generó fue enorme. Se trataba de un dispositivo para la tarjeta madre que operaba con un rendimiento de 400mHz. La presencia de este procesador en los ordenadores potenció la velocidad y rendimiento de los software.

historia de la informatica
Pentium 3 CPU Intel 1999

Por entonces, una memoria RAM podía tener un peso 512 Megabytes. Hoy en día existen equipos que operan con memorias RAM de hasta 16 gigabytes, o más. No sobra decir que la memoria RAM es la que está a cargo de recibir la información en tiempo real para digerirla y determinar las actividades que puede realizar un equipo.

Pero, ya desde la época en que se trabaja con Pentium III el gran giro que dio la historia de la informática se encontraba en todo el desarrollo y creación de software. Las empresas empezaron a crear programas ejecutables en sistemas operativos y fue eso lo que nutrió al mundo de facilidades para llevar un estilo de vida mucho más efectivo.

Las primera década del siglo XXI

El desarrollo de software representa un punto importantísimo en la historia de la informática, porque permitió que la inteligencia se transformara en código y que el código se convirtiera en algoritmos inteligentes capaz de responder a las peticiones de una persona.

Toda la primera década del siglo XXI se caracterizó por la creación de soluciones que facilitaran la vida de las personas: programas enfocados en permitir que un ordenador reprodujera música y vídeo, permitiera archivar información financiera o ejecutar un videojuego, entre muchas opciones más.

Fue una época de esplendor donde se divirtieron enormemente en crear soluciones. Y más aun con lo que representó el progresivo avance del Internet. Los desarrolladores de sistema hicieron uso de lenguajes de desarrollo como PHP, HTML y CCS3, entre muchos más para crear páginas webs funcionales que favorecieran a los proyectos y empresas.

Los lenguajes de desarrollo dieron vida a otros lenguajes de desarrollo. Por eso, hoy se cuenta con la eficiencia de tecnologías de desarrollo como Java, Python, Perl, Ruby, entre muchos más. Igualmente, las empresas de bases de datos se enfocaron en darle eficiencia al manejo de información para que esta no se perdiera. Un ejemplo de ello es lo logrado por la multinacional ORACLE.

La segunda década del siglo XXI

A partir de la segunda década del siglo XXI, el efecto del Internet afecto positiva y significativamente a la era de la informática. Ahora, los programas se empezaron a desarrollar de cara a lo que representaba la nube, como plataforma de gestión de información y bases de datos.

Claro, este concepto empezó a ser tenido en cuenta desde finales de la década de los 90. Sin embargo, el progreso que tuvo el Internet como medio de telecomunicación, permitió que el sueño de una era digital en la nube adquiriera mayor intensidad y forma. El concepto del servidor comenzó a tener entonces un alto protagonismo.




Hoy en día, la mayoría de los videojuegos desarrollados cuentan con la virtud poder disfrutarse gracias a la optimización que ofrece el servidor, como plataforma que recopila información y permite la interacción de las personas.

Y es que en este momento de la historia de la informática, las empresas de desarrollo de hardware ya habían logrado realizar un avance realmente extraordinario. Tanto así que se logró que una memoria RAM y un procesador pudiesen ser útiles en un teléfono cuyas dimensiones eran tan solo de 5 pulgadas. Sí: fue así como nació el smartphone como herramienta informática del siglo XXI.

Informatica – La era de las aplicaciones

Realmente la era del smartphone fue inaugurada por allá hacia el año del 2007. El mejor representante de este invento fue el señor Steve Jobs, pese a que en años anteriores Bill Gates y otras empresas había presentando una idea similar que no alcanzó a concretarse en el mercado.

la historia de la informatica
Presentación iPhone 2007 Steve Jobs

El concepto del smartphone y los dispositivos móviles es para muchos la cima de la historia de la informática, en tanto no solo demuestra el nivel de sofisticación que tiene un software, sino también el modo en que estos equipos pueden ser compatibles con la vida moderna.

¿Recuerdas que se dijo que un ordenador podía tener un tamaño de una habitación? Pues bien, ese mismo tamaño se redujo a lo que supone el smartphone que tienes ahora mismo en tu escritorio. Pero, ¿qué tal si recuerdas que hoy en día puedes usar tu smartphone para apagar las luces de tu casa aun cuando estés en el otro lado del planeta?

Sí, la era de los smartphone dio vida a lo que suponen las aplicaciones. Las aplicaciones de mensajería como Whatsapp, las apps de GPS y ese programita que te sirve para editar fotos, son una síntesis de todo lo que anteriormente se alcanzó a través de los lenguajes de desarrollo y la optimización de hardware. Todo eso sumado al hecho de que la informática esta interconectada a las redes.

Viendo la historia de la informática ¿Qué nos espera?

Al paso al que avanza la tecnología y la informática, se espera que en un futuro se logre la creación de inteligencias artificiales realmente potentes y autónomas. De hecho, ya existen las IA (Inteligencia Artificial) y son programas desarrollados por empresas importantes a nivel mundial.

Aun así, todavía falta un empujoncito extra, un poco más de investigación para que la informática de un paso irreversible. Ese paso, de acuerdo a expertos, supone la edad en que los mismos sistemas auxiliarán al ser humano, creando soluciones optimas para su vida. Con las IAs, la informática entraría en una etapa donde los programas se reinventarían a sí mismos.

Sin embargo, esto tiene sus pros y sus contras. Aunque la meta es el sueño feliz de una era donde la tecnología aporte a destino del hombre y facilite su día a día, también puede ocurrir que las IAs decidan irse hacia el lado tenebroso para ser autónomas y vivir en su propio reino digital.