miércoles, 30 de noviembre de 2016

Antecedentes del Tema



ANTECEDENTES DEL TEMA

En las últimas décadas los procesos de deslocalización e internacionalización de las grandes empresas, unidos a la explosión en el uso la de tecnologías de información y procesamiento de datos, han hecho que las necesidades de cómputo hayan crecido a un ritmo superior al que lo hacía la capacidad de cálculo de los ordenadores personales.

Debido a esto, se ha venido realizando un importante esfuerzo en la investigación de capacidades para la ejecución de procesos en múltiples computadores. Esta tendencia fue impulsada originalmente por la utilización de sistemas abiertos, interoperables y protocolos de comunicación estándar que permitían la comunicación eficiente entre sistemas y tecnologías heterogéneos.

Como primer paso Unix permitió la configuración de clusters, es decir, agrupaciones de ordenadores con componentes de hardware comunes que se comportan como una única computadora.

Más tarde el sistema operativo Linux mediante sus estándares abiertos permitió implementar clusters basados en la arquitectura estándar de los PC, consiguiendo instalaciones de cálculo de alto rendimiento a bajos precios y popularizando esta solución durante la década de 1990.

Lo que permitió ofrecer servicios a través de protocolos estándar, constituyendo la denominada arquitectura de computación grid, orientada al procesamiento en paralelo o al almacenamiento de gran cantidad de información, pero la complejidad para utilizar la infraestructura, las dificultades para utilizarla, y los problemas de portabilidad entre ellas, hicieron que nunca se popularizara fuera del ámbito de la investigación y académico.

Durante la década de los 2000 comenzaron a popularizarse las tecnologías de virtualización que hacían posible implementar máquinas virtuales que “desacoplan” el hardware del software y permiten replicar el entorno del usuario sin tener que instalar y configurar todo el software que requiere cada aplicación. Esto tiene ventajas en la distribución y mantenimiento de sistemas de software complejos y permite integrar bajo un mismo entorno un conjunto de sistemas heterogéneos.


Esta nueva arquitectura permitía distribuir carga de trabajo de forma sencilla, lo cual elimina los problemas que presentaba la arquitectura grid, abriendo una nueva puerta al cálculo distribuido, llamado cloud computing. Este nuevo modelo emerge como un nuevo paradigma capaz de proporcionar recursos de cálculo y de almacenamiento que, además, resulta especialmente apto para la explotación comercial de las grandes capacidades de cómputo de proveedores de servicios en Internet.

No hay comentarios:

Publicar un comentario