HPC Grid y Cloud, la Sinergia entre ellas

Introducción del Editor Invitado • Art Sedighi • Mayo 2013

International readers, read this article
in English • in Chinese
Traducido por Osvaldo Perez

clouds reflected off of glass paneled buildingEn lugar de tratar grid, computación en la nube y computación de alta desempeño, (HPC High Performance Computing), como temas independientes, el tema de este mes de CN se centra en la interoperabilidad entre tales metodologías y los y los problemas que se presentan en tal consideración.

Trabajando en Armonía

El primer artículo de nuestro tema es "Desde la Meta computación a las Infraestructuras Interoperables" por Stelios Sotiriadis y sus colegas, el cual comienza con un examen de alto nivel de las capacidades y utilización de cada una de estas tecnologías.

  • Las características de HPC quedan vinculadas fuertemente entre las aplicaciones y la infraestructura homogénea que la soporta. Se enfoca principalmente en la velocidad y el desempeño en el ambiente orientado los clientes.
  • La computación Grid posee un acoplamiento menor entre las aplicaciones y la infraestructura de soporte. Las aplicaciones son menos dependiente de la ubicación dado que las organizaciones virtuales permiten nodos heterogéneos y dispersos geográficamente. Se enfoca en el paralelismo y la computación distribuida y se restringe el acceso a la infraestructura compartida.
  • La Computación en la Nube virtualmente no incluye el acoplamiento entre las aplicaciones ya la infraestructura de soporte. Se enfoca en el pago por uso y la provisión dinámica de recursos de computación en cualquier momento y lugar por medio de la infraestructura pública de acceso. Es usual el uso de Acuerdos de Niveles de Servicio, (SLA) con menores requisitos.

Nada nuevo, verdad? Casi. El cambio producido en los años recientes ha sido en la habilidad para coordinar e integrar estas aparentes diferencias de ambiente. Sotiriadis y sus colegas presentan un concepto de un meta- asignador que puede mover las cargas de trabajo entre los tres ambientes. Su artículo presenta los tópicos de investigación actual en el área y más importante aún, los huecos entre ellos.

Meta Asignador que ayuda con la Integración.

El meta asignador puede ser centralizado o descentralizado pero el objetivo final es la integración de los ambientes que se encuentran en la capa de administración. Thomas Rings y Jean Grabowski demuestran este enfoque en el segundo artículo, "Integración Pragmática de las Infraestructuras de Computación en Grid y en Cloud" Como ellos debaten un meta asignador debe balancear los desafíos siguientes.

  • Recursos heterogeneos,
  • Gestión y asignación entre las ubicaciones y ambientes locales y remotos,
  • Ambientes dinámicos en los cuales los recursos pueden ir y venir,
  • Ubicaciones dispersas geográficamente,
  • Balanceo de carga con tipos de recursos y ubicaciones múltiples,
  • Fallas y reasignaciones y
  • Restricciones de Seguridad.

Una gran cantidad de investigación se ha realizado en esta área, pero solo hemos comenzado a rasgar la superficie.

Ring y Grabowski utilizaron un enfoque muy pragmático centrada en la integración del ambiente actual en grid de la infraestructura pública de Cloud de Amazon Web Services (AWS) . En lo que ellos denominan "servicios de grid en cloud", en donde los autores utilizan la Interface Uniforme de Recursos de Cmputación (Unicore) para instanciar una infraestructura de Nube privada como un servicio (IaaS Infrastructure as a Service), dentro de la Nube pública de Amazon IaaS. El Gateway Unicore (o meta asignador) controla el balanceo de carga entre la grid interna y la grid de la Infraestructura de servicios en Nube. Esto presenta una avance significativo hacia la interoperabilidad aun cuando sus resultados demuestra desafíos pendientes en este campo.

Gestión de los Acuerdos de Servicio SLA

Asumiendo que hemos resuelto los desafíos genéricos de la arquitectura de la integración de la nube externa con el ambiente interno de la grid/HPC, el aspecto de precios se desplaza al centro del escenario, particularmente cuando es apropiado para los SLA, la gestión de los SLA y la selección de los servicios. Esto significa que: ¿una vez que hayamos encontrado cómo realizar el desplazamiento de la carga en forma dinámica, seremos capaces de generar un -mercado puntual- en el cual los recursos se puedan comprar y distribuir en forma inmediata, en donde los usuarios puedan elegir a los proveedores del servicio en función de su SLA usual sus precios y sus objetivos? Podrían, por ejemplo pagar un precio menor en la tarde, con un SLA menor a un proveedor en comparación con un precio más elevado en la mañana de otro proveedor con un grado de servicio más alto, según las necesidades.

El objetivo es ganar agilidad para el siguiente nivel de forma de que se pueda mover y balancear la carga entre múltiples proveedores de cloud, en función de sus SLA y precios. Teniendo esto en mente, nuestro tercer artículo "Selección de Proveedores y comparación automática de los SLAs en los mercados de Grid y Cloud Computing" por Chistoph Redl y sus colegas, discute la implementación de un formato SLA que se puede utilizar para negociar (comparación de SLAs), y la firma de contratos legales (slección en tiempo real de proveedores). Se implementa por medio de Web services estandarizados, como WS Agreement o WSLA, sus formatos propuestos contienen los datos requeridos, (por ejemplo, métricas SLA, parámetros, y objetivos de niveles de servicio). que un algoritmo de máquina de aprendizaje puede utilizar para mediar y concordar con contratos. El algoritmo de máquina de aprendizaje utiliza un estilo de lazo de control MAPE que 1) Monitorea el progreso del aprendizaje en función de las recomendaciones, 2) Analiza conocimiento nuevo para ser agregado a la base de datos, 3) Planifica el entrenamiento y la revisión, y 4) Ejecuta el entrenamiento.

Balanceo de Carga y Teoría de Juegos

Nuestro artículo final "Sobre el diseño Estrategias de Precios y Balanceo de Cargas Óptimas y Mutuamente Consideradas, para los Sistemas de Grid Computing" de Qin Zheng y Bharadwaj Veeravalli, presenta estrategias para considerar los aspectos discutidos por Redl y sus colegas. Los autores investigaros en los aspectos de la teoría de juegos para el balanceo de carga (un tópico que es de mi particular interés por su relevancia para la investigación que estoy realizando con mi PhD) "Jugando" el sistema subyacente; -por ejemplo, al recargar la infraestructura para prevenir que otros obtengan acceso- podemos obtener efectos adversos en los SLAs de otros usuarios. En contraste no se puede jugar con los sistemas por reserva de recursos porque separan los recursos en forma aislada con respecto a las necesidades o los requerimientos de los usuarios. Otros métodos pueden también prevenir o reducir, la capacidad para jugar con el sistema. Redl ys sus colegas examinan como los proveedores pueden utilizar la diferenciación de precio para ayudar a prevenir un agotamiento temporal, cuando los requerimientos de servicio de un usuario se retrasan porque se ha jugado con el sistema, como oposición al modelo actual en el cual el sistema trata de encontrar el promedio (o el límite) de uso entre los usuarios concurrentes del sistema de forma que ningún usuario pueda agotar los recursos para los otros usuarios. La competencia en los ambientes en Grid es menos severa que en las Cloud Públicas en donde los usuarios no poseen un interés particular ni ulterior en cooperar entre si. En un ambiente en Cloud dos usuarios podrían representar a compañías rivales y por lo tanto no poseer interés en cooperar entre ellos.

Al ofrecer varios modelos de precios se puede ayudar a los proveedores a maximizar el beneficio e incrementar el uso. Los autores muestran que es fácil para el proveedor del servicio, (internos o externos), cambiar el comportamiento simplemente al variar el precio de uso en lugar de imponer restricciones u otras políticas similares. Esto debiera parecer obvio, pero en el ambiente en Cloud con usuarios no cooperativos, establecer el precio incorrecto puede reducir el beneficio ya que la Nube no volverá a representar la opción más atractiva. Finalmente, el objetivo aquí es el de establecer un mercado que incluya el punto de equilibrio de Nash -el punto en el cual ningún proveedor de servicio puede desear cambiar su precio y seguir esperando un incremento en su beneficio.

A menos que un cambio inesperado y completo en el ambiente actual haga posible (tal vez cuando los servidores antiguos alcancen el final de su vida útil), la integración, eficiente y continúa y la interoperabilidad de los ambientes entre HPC, Grid y Cloud Computing, será un desafío importante para el crecimiento de la cloud computing en los campos en los cuales ya se ha invertido en tecnologías HPC y grid. Desde una perspectiva de las aplicaciones, los usuarios finales se preocupan primariamente por sus SLAs y sus costos asociados. La capacidad para ofrecer los beneficios de la provisión dinámica de capacidad en la Nube y la adaptación de los ambientes de HPC y de grid, le permitirá a los usuarios realizar decisiones de compromiso en tiempo real para alcanzar el nivel de servicio necesario. Los artículos de el tema de este mes de CN explorar algunos métodos para lograr esta interoperatividad.

Art SedighiArt Sedighi es un consultor independiente que trabaja en la Ciudad de Nueva York centrado en el diseño y la implementación de infraestructuras. Posee una Maestría en Ciencias de la Computación de la Universidad de Rensselaer y una Maestría en biotecnología y bioinformáica de la Universidad Johns Hopkins. Sedighi está trabajando actualmente en su PhD en Matemáticas Aplicadas en la Universidad del Estado de Nueva York en Stony Brook. Puede mirar su blog y el estado de su PhD en http://phd.artsedighi.com y lo puede contactar en at sediga@alum.rpi.edu.

Average (0 Votes)