Un gran avance tecnológico que
posibilitó un nuevo cambio en las arquitecturas empresariales, fue el concepto
de base de datos o, más conceptualmente, el repositorio central de datos.  Este nuevo concepto surgió de la demanda de
las empresas de tratar cada vez volúmenes de datos más grandes en menos tiempo
y evitar los tiempos de “latencia” que existían al traspasar datos de un
sistema a otro dentro de la organización.

En ese momento, las aplicaciones
basadas en lenguajes de tercera generación como el COBOL o BASIC no eran
capaces de tratar eficientemente grandes volúmenes de datos.  Toda la mejora en el tiempo de procesamiento
había estado concentrada en el hardware, que había evolucionado de los equipos
monoprocesador hacia los equipos con múltiples procesadores, e incluso
arquitecturas cliente/servidor, donde el procesamiento podía distribuirse entre
numerosos equipos conectados entre si.
La nueva generación de software
permitía que los programadores de aplicaciones se olvidaran de la gestión de
archivos y almacenamientos de datos, y algoritmos para optimizar el proceso de
datos.  Una nueva capa de software: el
administrador de base de datos, se ocupaba de ello.  Este software era capaz de, al precio, de
cierta redundancia y/o duplicación, acelerar sustancialmente el acceso a los
datos, y adicionalmente, reducir mucho los tiempos de programación.

Adicionalmente, otra gran barrera cayó
y permitió el acceso a la TI
a prácticamente cualquier organización de 
cualquier tamaño: la microcomputación.  
La introducción de los primeros ordenadores personales a fines de los
`70 y principios de los ´80 (Apple, IBM), a un coste muy accesible multiplicó
exponencialmente el número de empresas, profesionales y personas en general con
acceso a la TI.  

El primer PC de IBM-Modelo 5150 (1980)
Curiosamente cuando lanzaron este
equipo, los fabricantes sólo pretendían optimizar el rendimiento individual de
las personas, en casa o en la oficina, como complemento pero no como
competencia de sus grandes sistemas.  Al
fin y al cabo, era una manera de llegar al segmento de empresas e individuos
que no tenían acceso a la informática, por sus altos costes.  Pero, por el contrario, se produjo una
explosión que amenazaría a los fabricantes con su propia destrucción.

La industria se revolucionó.  La nueva tecnología estaba al alcance de
miles de pequeñas empresas en el mundo, capaces de copiar los diseños y obtener
los mismos componentes que los grandes fabricantes.  Los microcomputadores se empezaron a difundir
masivamente a precios, cada vez más bajos, canibalizando a sus propios
creadores.
Además, la decisión de IBM de pagar por
la “licencia de uso” de un sistema operativo de un tercero, Microsoft, en lugar
de liberar uno propio con el equipo, cambió la forma de hacer negocios en la
industria informática.  Los programadores
expertos vieron la posibilidad de obtener su tajada del negocio, cobrando por
el uso de programas estándar de uso muy diverso (juegos, procesadores de texto,
planillas de cálculo, etc).

  

The Pirates of Silicon Valley (Youtube)
Escena: IBM acepta pagar a Microsoft por cada PC vendido que utilice su SO MS-DOS


Pronto, surgieron miles de pequeñas
empresas que, al no haber grandes barreras de entrada, empezaron a desarrollar
software para los nuevos ordenadores.  Ya
no se podían vender unos pocos programas a cientos de miles de dólares, pero se
podía vender miles a unos pocos cientos de dólares.  La multiplicidad de usos que tenía el
microcomputador para la oficina, la casa o la universidad, hacía también mucho
más amplia la gama de programas que podían desarrollarse sobre él.

Al mismo tiempo, explotó la cantidad de
profesionales que podía dedicarse a la informática.  Hasta ese momento, el estudio de la
informática era caro y estaba limitado a las posibilidades de acceso de unos
pocos elegidos a centros que dispusieran de los caros equipos mainframe o
minicomputadores.  De hecho, estos
centros, fuesen privados o públicos, eran fuertemente dependientes de los
fabricantes, que los controlaban y podían regular la oferta y demanda de
plazas.

A partir del microcomputador, miles de
nuevos profesionales de la informática se autoformaron o pudieron formarse en
las nuevas tecnologías en una múltiple gama de nuevos centros privados y
públicos.  Asimismo, millones de personas
que hasta ese momento trabajaban en las empresas sin contacto con los
ordenadores, empezaron a utilizar el ordenador como una herramienta de trabajo
más, como la propia máquina de escribir.
Tanto éxito comercial, hizo que se
dispararan las inversiones para mejorar y optimizar el producto, y así los
microprocesadores, sin crecer en tamaño ni en coste, empezaron a aumentar su
capacidad de procesamiento hasta acercarse y superar las capacidades de los
minicomputadores, hasta virtualmente reemplazarlos.  Por otro lado, aumentaron su capacidad de
procesamiento, por medio de la computación en red.

La constitución de redes locales,
basadas en PCs, empezó a multiplicarse fue otra manera de aumentar el poder de
procesamiento de los ordenadores.  Para
principios de los ´90 se empezó a dar una convergencia explícita con las nuevas
tendencias en el software empresarial: los repositorios centrales de datos y la
arquitectura cliente/servidor.

Entre 1990 y 1995,  la industria y la tecnología ya estaban
listas para impulsar un nuevo paradigma en el diseño de las arquitecturas de
sistemas: el sistema integrado de gestión. 
 
Esta web utiliza cookies propias para su correcto funcionamiento. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad