ANTECEDENTES DEL TEMA
En las últimas décadas los
procesos de deslocalización e internacionalización de las grandes empresas,
unidos a la explosión en el uso la de tecnologías de información y
procesamiento de datos, han hecho que las necesidades de cómputo hayan crecido
a un ritmo superior al que lo hacía la capacidad de cálculo de los ordenadores
personales.
Debido a esto, se ha venido
realizando un importante esfuerzo en la investigación de capacidades para la
ejecución de procesos en múltiples computadores. Esta tendencia fue impulsada
originalmente por la utilización de sistemas abiertos, interoperables y protocolos
de comunicación estándar que permitían la comunicación eficiente entre sistemas
y tecnologías heterogéneos.
Como primer paso Unix
permitió la configuración de clusters, es decir, agrupaciones de ordenadores
con componentes de hardware comunes que se comportan como una única
computadora.
Más tarde el sistema
operativo Linux mediante sus estándares abiertos permitió implementar clusters
basados en la arquitectura estándar de los PC, consiguiendo instalaciones de
cálculo de alto rendimiento a bajos precios y popularizando esta solución
durante la década de 1990.
Lo que permitió ofrecer
servicios a través de protocolos estándar, constituyendo la denominada
arquitectura de computación grid, orientada al procesamiento en paralelo o al
almacenamiento de gran cantidad de información, pero la complejidad para
utilizar la infraestructura, las dificultades para utilizarla, y los problemas
de portabilidad entre ellas, hicieron que nunca se popularizara fuera del
ámbito de la investigación y académico.
Durante la década de los
2000 comenzaron a popularizarse las tecnologías de virtualización que hacían
posible implementar máquinas virtuales que “desacoplan” el hardware del
software y permiten replicar el entorno del usuario sin tener que instalar y
configurar todo el software que requiere cada aplicación. Esto tiene ventajas
en la distribución y mantenimiento de sistemas de software complejos y permite
integrar bajo un mismo entorno un conjunto de sistemas heterogéneos.
Esta nueva arquitectura
permitía distribuir carga de trabajo de forma sencilla, lo cual elimina los
problemas que presentaba la arquitectura grid, abriendo una nueva puerta al
cálculo distribuido, llamado cloud computing. Este nuevo modelo emerge como un
nuevo paradigma capaz de proporcionar recursos de cálculo y de almacenamiento
que, además, resulta especialmente apto para la explotación comercial de las
grandes capacidades de cómputo de proveedores de servicios en Internet.
No hay comentarios:
Publicar un comentario