Portada

Virtualización, más allá de la reducción de costos

La reducción de costos y la optimización del cómputo son valores tangibles de esta tecnología, que la hacen base de una amplia oportunidad de negocio para integradores de cualquier tamaño de compañías.


Una forma de crear ambientes donde residan sistemas operativos, aplicaciones o plataformas de almacenamiento es el principio básico de la virtualización. El concepto apareció a fines de la década de los 50 y se aplicó en universidades, como la de Manchester y el MIT a principios de la década de los años 60; fue en 1964 cuando el Centro Científico de Cambridge de IBM documentó el desarrollo del CP-40, el primer sistema operativo que implementaba full virtualization, que permitía emular simultáneamente hasta 14 pseudo machines, denominadas, más tarde, máquinas virtuales.

Para la década del 2000, la virtualización resurgió como nuevo modelo de cómputo, generando atractivos ingresos a los integradores de sistemas X86.

El caso más representativo es VMware, compañía fundada en 1998 y comprada por EMC en 2004, que a mediados de 2007 se hizo pública y puso a la venta 10% de sus acciones, con lo cual permitió la inversión de Cisco e Intel.

Gracias a los beneficios de utilizar sistemas virtuales, el concepto se extendió a aplicaciones, sistemas operativos y, recientemente, al escritorio; de igual manera, madurará en las redes.

Con lo anterior, otras empresas se interesaron y comenzaron el desarrollo de sus plataformas, de tal manera que ahora existen ofertas como las de Citrix, Microsoft y VMware.

¿Cómo lo hace?

El principio básico de la virtualización consiste en desacoplar los componentes del cómputo: hardware, sistema operativo, aplicaciones y datos; los tres primeros son los básicos y tradicionalmente siempre han estado unidos en una máquina con un sistema operativo y una aplicación, sin la posibilidad de tener varios programas en una misma máquina, con un solo sistema operativo.

“El software de virtualización separa los componentes y ofrece flexibilidad para tener más de una plataforma en el hardware, que da como resultado diferentes ambientes y aplicaciones corriendo en una misma máquina”, explicó Alejandro Martínez de Microsoft.

Con lo anterior se consolida, pues de usar varios servidores para una sola aplicación se utilizan menos con procesos diferentes y en el escritorio se pueden reutilizar PCs de generaciones anteriores. En ambos casos se ofrece reducción de costos.

¿Porqué consolidar?

El ejecutivo la de compañía de las ventanas señaló que en México el porcentaje de uso de un servidor X86, con procesador Intel o AMD es de 7%, de acuerdo con IDC y Gartner, lo que significa que la mayoría de los clientes tienen muchos equipos en su centro de datos que están siendo subutilizados; la única manera de incrementar el porcentaje de utilización de un servidor es aumentarle la carga.

De tal manera que cada vez que se reducen los servidores se incrementa el porcentaje de utilización y la única manera de hacerlo es por medio de la virtualización; es decir, correr diversos sistemas operativos dentro del mismo servidor físico.

 

Tipos de virtualización

Servidores

Aplicaciones

Computadoras personales

 

Cabe señalar que las herramientas para virtualizar deben ser nativas y la mayoría de la oferta se encamina a esta tendencia, pues las primeras que existían corrían sobre el sistema operativo, pero tenían el inconveniente de que en caso de que existiera un problema en la plataforma, y como en ésta se monta la virtualización, se podría tener también el problema de forma virtual.

“Al hacerlo directamente sobre el hardware se libera de la posibilidad de falla y lo que se tiene son soluciones robustas y casi infalibles”, agregó Martínez.


Hacia la oportunidad

En cifras dadas por el ejecutivo, en México se venden 53 mil servidores nuevos cada año y la base instalada aproximadamente es de 250 mil, mientras que 3% se deshecha; de esos 250 mil servidores, menos del 10% tiene aplicaciones virtuales, lo que significa que a pesar de ser una práctica que ya tiene tiempo, el tema es un nicho joven.

“Como Microsoft vemos un área de oportunidad muy grande porque el mercado está ahí y porque la situación económica es un caldo de cultivo para el desarrollo de negocios”, precisó el directivo.

En este sentido, Alberto de EDS señaló que en la experiencia del integrador de tecnología y proveedor de outsourcing, la virtualización es demandada en servicios básicos, desde una cinta, donde se simula una cinta en disco, esquemas de servicios de datos en diferentes plataformas, servidores y hasta centros de contacto.

“El 100% de nuestros clientes tienen por lo menos un servicio virtual, ya sea que lo hagamos y soportemos nosotros o sea implementado por ellos mismos”, indicó.

Reconoció que las soluciones virtuales les dan a cualquier tamaño de empresas la flexibilidad para atender sus necesidades de negocio, con el objetivo principal de reducir el costo total de un servicio “directamente impacta en una menor inversión en hardware, reducción de equipos físicos, menos gasto en software, disminución espacio, energía y aire acondicionado”.

Específicamente para las pequeñas empresas, el tema importante es la flexibilidad para atender las necesidades de su negocio; es decir, bajo el concepto de virtualización pueden contratar de un servicio. “No invierten en hardware, el costo del software lo absorbe el proveedor y, en el caso de EDS, les proporcionamos centro de datos”, añadió.

“El negocio para lo socios es la venta, implementación, preventa, donde siempre el canal gana”.

Como proveedor de servicios, la virtualización le permite a EDS bajar entre 30% y 40% de costos de un servicio, además de cumplir con time to market, pues evitan que una empresa tenga pase por todos los procesos de comprar tecnología; en cambio, está la facilidad de arrendarla como servicio, “ya que quienes proveemos servicios tenemos la infraestructura y el conocimiento”.

En este sentido, César Cruz, gerente de Consultoría Tecnológica para Unisys México, comentó que la virtualización no está ligada a un tamaño de empresa, pues ha probado ofrecer beneficios tangibles en organizaciones con problemas de centros de datos, no necesariamente gigantescos, pero que les falte espacio o que buscan ahorrar en energía eléctrica o reducción de costos en el aprovisionamiento de tecnología, sin importar su tamaño o giro. “Hay empresas de tamaño PyME que definitivamente en la virtualización pueden tener ventajas importantes”.

Además, destacó que la virtualización es un paso para llevar a las empresas a la automatización en términos de aprovisionamiento de infraestructura.

“Sólo en las fuentes de poder de los servidores en un año se observan ahorros significativos en energía, falta sumar el soporte, mantenimiento, etcétera, como resultado se puede ver que se reducen los costos de operación hasta en 25%”, agregó.


La ganancia del canal

De acuerdo con un análisis del mercado realizado por Microsoft, existen empresas entre medianas y grandes que tienen mucha oportunidad para virtualizar, porque ocupan hasta cuatro equipos, que son viejos y están subutilizados con altos costos de mantenimiento.

El directivo indicó que la estrategia es vender estas soluciones por medio distribuidores. “El negocio para los socios es la venta, implementación, preventa, donde siempre el canal gana”.

Explicó que cuando se reducen servidores, la única pérdida que sufre el canal consiste que en lugar de vender 10 cajas solo coloca dos, por ejemplo, pero las cajas que entrega son más grandes y caras, lo que significa que el margen se sigue manteniendo.

“En el contrato de mantenimiento de hardware el rubro es menor, pero en el de software siguen ganando. Además, con la implementación salen nuevos proyectos que normalmente son asignados a los canales que consolidaron la tecnología”, subrayó.

Ejemplo de ello es infraestructura, pues la prioridad de las empresas es la consolidación y luego ven comunicaciones unificadas que incrementan la productividad, nicho donde los distribuidores también pueden incursionar y hacer negocios.

También se habla de temas de implantar alta disponibilidad, respaldos en caso de desastres, porque ahora un solo servidor está soportando toda la operación de la empresa.

Sin embargo, no todo el canal es apto para ofrecer virtualización, para ello se requiere inversión en capacitación y con la filosofía de vender valor.

Rumbo y tendencias

El opinión del directivo de Unisys, el mercado está en una segunda oleada en la adopción de virtualización, la primera fue la adopción de la tecnología per se, donde las empresas proveedoras de la tecnología hablaban de ahorros en espacio, energía, etcétera.

Esta oleada se caracterizó porque había retornos buenos; sin embargo, el integrador entiende que el mercado está en una segunda etapa, donde los clientes que virtualizaron en la primera fase se han dan cuenta que la adopción de la tecnología no lo es todo y buscan procedimientos, soluciones o procesos que los ayuden a tener una mejora en la administración del mundo virtual.

“Si cuando tenían servidores físicos había descontrol y lo pasaron a virtual, tal vez obtuvieron beneficios, pero el desastre físico es virtual y ven que requieren soluciones de operación y administración de ese mundo, esa es la nueva oleada”.

Para el ejecutivo de Microsoft, es ahora cuando se debe dar el boom de virtualización, sin embargo no está siendo implementada tan rápido, “se debe hacer un centro de datos dinámico, consolidado, será pequeño con pocas cajas; con alta disponibilidad y automatizado, para que se pueda ahorrar dinero se necesitan automatizar muchas tareas.

El futuro, que es hoy, la infraestructura indicará qué tan rápido es el tiempo de respuesta y el centro de datos tendrá la capacidad de crear más servidores virtualizados, de acuerdo a las necesidades o demandas de los procesos de la empresa”.

Agregó que en escritorio se verá el cómputo centralizado en el usuario; es decir, la PC no importará tanto para tener acceso, porque datos, sistemas operativos y aplicaciones residirán en un servidor, y el usuario sólo recibirá las herramientas que requiere para sus tareas, con lo cual se consumirá menos ancho de banda y la red funcionará de marea más eficiente.

Por su parte, el integrante de EDS explicó que como cualquier nueva tecnología tiene que tomar su madurez en el mercado, su etapa emergente, consolidarse y madurar. “Cualquier organización debe pensar en virtualización, su estrategia puede ser diferente de cómo entrar, pero todas tienen que tener un enfoque de recursos compartidos y no dedicados, lo que reduce significativamente sus costos”.

Sin duda, las tendencias en el esquema de cómputo en la red y en la virtualización seguirán evolucionando fuertemente en los siguientes meses, el mayor beneficio será de cara a las pequeñas y medianas empresas, en las cuales, por medio de la utilización de recursos compartidos, no sólo en hardware sino también en software y telecomunicaciones se entregaran servicios a costos competitivo en el mercado.

Publicaciones relacionadas

Botón volver arriba
Share via
Copy link
Powered by Social Snap