GENERALHoy canalTendenciasZona-Footer1

Cinco tendencias para centros de datos en 2015 según Dimension Data

La compañía proyectó algunas tendencias que se deben observar y su impacto en los negocios:

1.- Lo grande se hace más grande; lo pequeño, más pequeño: Kevin Leahy, director general para Centros de Datos del Grupo de Dimension Data, explica: “Uno o dos años atrás, estábamos debatiendo si el centro de datos y la nube estaban listos para ofrecerse juntos. Los clientes estaban preocupados sobre si la nube estaba diseñada para apoyar las cargas de trabajo de producción y los requisitos de cumplimiento. Pero hoy en día, cada CIO con el que hablo no pregunta si se debe mover a la nube. Ahora es una cuestión de cuánto de sus entornos se puede mover a la nube y qué tan rápido pueden hacer la transición”.

Esto tiene consecuencias para el propio centro de datos. Las organizaciones necesitan volver a evaluar: a) la cantidad de espacio del centro de datos que se requiere y b) dónde ubicar los centros de datos restantes.

Por otro lado, los centros de datos de gran tamaño, por lo general propiedad de los proveedores de nube líderes de la industria, no ven otra cosa más que crecimiento en el horizonte. Estas instalaciones gigantes se están expandiendo ya sea debido al hecho de que están absorbiendo la capacidad transferida por parte de los clientes que buscan explotar el modelo de nube, o simplemente como un resultado de la naturaleza y complejidad de las empresas a las que sirven.

 

2.- Extraer el valor de la tecnología es más importante que la tecnología en sí misma: Leahy explica: “Cada vez menos, los directores de TI piden nuestra ayuda con cuestiones de tecnología, ahora están buscando ayuda para actualizar sus procesos operativos para extraer el máximo valor de sus inversiones en tecnología”. Tomar decisiones informadas con respecto a nuevas inversiones en tecnología, es fundamental para garantizar la extracción del máximo valor de éstas. El mercado está pasando de componentes basados en hardware y software a uno en el que se ofrecen tecnologías en paquetes con altos niveles de automatización. Sin embargo, no siempre es fácil determinar cómo sacar el máximo provecho de estas tecnologías, y cómo van a interoperar con las infraestructuras ya existentes y las cargas de trabajo que se estén ejecutando en una nube pública.

3.- Agilidad, explorar el arte de lo posible: Invertir en tecnología ágil de desarrollo de software es un primer paso para capitalizar oportunidades. Los líderes de TI deben inculcar una cultura de la gente, procesos y software trabajando de manera conjunta y que responden a los cambios, en lugar de seguir un plan rígido.

El concepto de facturar la capacidad de TI basada en el consumo es un factor clave de esta transformación. Pero las ventajas se extienden mucho más allá del ahorro de costos por sí solos; este modelo permite a los equipos de TI probar nuevas ideas de forma rápida y desencadenar la innovación, sin arriesgar al negocio. Los desarrolladores pueden probar las cosas sin tener que poner en marcha estructuras formales. Y si algo funciona, perfecto; si no lo hace, entonces pueden volver y probar otra cosa.

4.- ‘Impulsado por software’ se transforma en valor del negocio: Como se ven las perspectivas para este 2015, el desafío que enfrentan muchas organizaciones es cómo asegurar que sus iniciativas de implementación de metodologías basadas en la agilidad, resulten en un valor del negocio tangible. Colin McNamara, arquitecto jefe de nube en la filial de Dimension Data, Nexus, comparte algunas de sus ideas y experiencias: “Una de las herramientas que nuestro equipo de desarrollo ágil de software utiliza en sus operaciones de desarrollo y con los clientes, es el mapeo de flujo de valor. Es un proceso de ‘lápiz y papel’ que permite visualizar el impacto de sus actividades en el negocio y dar prioridad a sus actividades”. McNamara también cree que las tecnologías de código abierto como OpenStack y OpenDaylight también pueden agregar un valor significativo.

5.- Momento de ser audaces sobre cómo extraer el valor de la información: Leahy cree que es hora de que los profesionales de centros de datos vayan más allá de la gestión de la infraestructura y traten de encontrar maneras de reducir los costos de almacenamiento y empiecen a explorar el nuevo valor potencial inherente a la información. Por su parte Treb Ryan, director de estrategia de la Unidad de Servicio ITaaS de Dimension Data, advierte que las decisiones con respecto a los datos y el almacenamiento no se pueden hacer de manera aislada, especialmente en la era de la analítica y el big data. “El tipo de almacenamiento que se necesita dependerá de lo que quiere lograr con sus datos y cómo quieres lograrlo. No es tan simple como decir ‘yo quiero entrar en el big data, así que voy a empezar a acceder a las herramientas’”.

Hadoop y MapReduce se basan en la premisa de que se tiene un acceso rápido de lectura secuencial de discos baratos. Sin embargo, los servidores en nube tradicionales no ofrecen esta capacidad. Están diseñados para aplicaciones altamente transaccionales. Así que es importante tener en cuenta lo que se quiere hacer con los datos. ¿Quiere realizar transacciones? ¿O quiere archivarlos y posteriormente extraerlos y agregarlos a modelos de big data? También es necesario pensar en cómo se optimizan las aplicaciones para asegurar que los datos se pueden sacar del entorno de almacenamiento cuando sea necesario.

El almacenamiento de objetos es otra área de creciente interés por parte de las empresas que están probando las aguas de los grandes datos.

 

[email protected]

Publicaciones relacionadas

Botón volver arriba
Share via
Copy link
Powered by Social Snap