Hoy canalTendenciasZona-Footer1

Tendencias en almacenamiento de datos: HDS

Hu Yoshida, vicepresidente y director de Tecnología en Hitachi de Data Systems (HDS), expone sus tendencias respecto al almacenamiento de datos para el 2015:

1. Las TI definidas por el negocio: La movilidad, la nube, las redes sociales y al big data generarán un crecimiento comercial sostenible y requerirán una mayor colaboración entre el área de TI y el negocio. Será necesario que la infraestructura de TI esté definida por el negocio, lo que exigirá a los proveedores ofrecer orquestación, automatización e integración en torno a sus productos. También deben proporcionar el software de administración y de generación de reportes. La mayor parte de los departamentos de TI tienen una sobrecarga de trabajo y no cuentan con el ancho de banda necesario para implementar software y procesos nuevos. Los proveedores y sus canales de distribución deberán brindar servicios para aliviar parte de esta carga y permitir que los departamentos de TI realicen la transición hacia este nuevo paradigma. Los proveedores y sus canales deben estar dispuestos a compartir el riesgo y trabajar como socios de TI en esta transformación.

2. Las nuevas capacidades aceleran la adopción de las plataformas convergentes e hiperconvergentes: El punto de entrada para acceder a las soluciones convergentes bajará gracias a soluciones que tienen precio y características específicas para el mercado de pequeñas, medianas empresas y de oficina remota/back office, con la flexibilidad que les permite integrarse a configuraciones empresariales. Las soluciones hiperconvergentes, formadas por nodos con arquitectura scale out de servidores básicos tipo commodity con almacenamiento interno, ayudarán a reducir los costos aún más para aplicaciones con arquitectura scale out como servidores web.

3. Habrá más inversiones en herramientas de automatización de administración. El aprovisionamiento de aplicaciones y la orquestación de cargas de trabajo se harán sobre la base de plantillas. La automatización incluirá el movimiento de cargas de trabajo entre nubes, públicas y privadas, para alinear la infraestructura adecuada en función del costo, el performance, la localidad y la gobernanza. Además, la automatización de la administración se verá facilitada por una infraestructura convergente con una capa de orquestación que elimina la necesidad de vincular y activar diferentes administradores.

4. “Todo definido por software” será algo muy publicitado, y muchos proveedores venderán sus productos bajo este estandarte. Concepto clave hacia la simplificación y automatización de la infraestructura de TI. Los pioneros entrarán al mercado con software que pretenderá ser de clase empresarial con hardware básico tipo commodity de bajo costo. Si bien el software puede mejorar la tecnología, en el hardware los resultados estarán limitados por la infraestructura de hardware subyacente. El software con hardware básico puede ser suficiente en algunos casos, pero en el mundo definido por el software seguirá existiendo la necesidad de contar con hardware empresarial inteligente.

5. La virtualización global extenderá la virtualización en forma horizontal y abarcará múltiples sistemas de almacenamiento, que pueden estar a una distancia geográfica metropolitana en el caso de bloques, y a grandes distancias globales en el caso de los sistemas de almacenamiento de archivos y de contenido, creando máquinas de almacenamiento virtual que presentan un pool de recursos de almacenamiento virtual que abarcan múltiples sistemas de almacenamiento físico.

6. Mayor foco en la recuperación de datos y en la administración de copias de protección de datos. Se recurría al backup basado en discos y a la deduplicación para reducir el costo del almacenamiento de datos de backup. En 2015 se hará más énfasis en reducir los objetivos de tiempo de recuperación y de punto de recuperación, y se continuará reduciendo el costo de la protección de datos. Los administradores de TI necesitarán herramientas para descubrir, hacer un seguimiento y administrar las copias, clones, snaps y réplicas de depósitos de datos en su entorno a fin de reducir el derroche relacionado con todas esas copias y hacer más eficiente el proceso de recuperación.

7. Se lanzarán nuevas tecnologías flash, tales como las memorias TLC y 3D NAND, para aumentar la capacidad de las unidades flash. Sin embargo, también aumentarán los requerimientos de inteligencia para administrar la complejidad adicional y la menor durabilidad de esas tecnologías. Existe la posibilidad de utilizar la capacidad de procesamiento del dispositivo del módulo flash para optimizar la capacidad y la carga de trabajo de ciertas aplicaciones.

8. Seguiremos viendo un crecimiento sólido en big data y herramientas de análisis como SAP Hana y Hadoop. Plataformas convergentes y hiper-convergido preconfiguradas acelerarán la implementación de aplicaciones big data. El Internet de las cosas creará una explosión de información. Análisis de lotes darán paso a los datos de streaming analytics para el análisis en tiempo real de los datos de los sensores, y más inteligencia será incorporada a ingestors borde. Aplicaciones, construidas alrededor de la Internet de las cosas, serán presentadas por empresas que tienen experiencia en el análisis de sensores y mercados verticales como la vigilancia y cuidado de la salud.

9. Lago de datos (Data Lake) para big data analytics. Si se piensa en un mercado de datos como depósito de agua embotellada, el lago de datos es una gran masa de agua en un estado más natural. El contenido viene de varias fuentes y varios usuarios del lago pueden llegar a examinar, bucear o tomar muestras. Estos sistemas lacustres mantienen grandes cantidades de datos accesibles a través de interfaces web y de archivos. La protección de datos para los lagos de datos constará de réplicas y no requerirá copia de seguridad. El código abierto se utiliza para reducir los costos de licencias y sistemas de cómputo será optimizado para reducir el mapa de análisis. La jerarquización automatizada se empleará para los requisitos de rendimiento y retención a largo plazo. El almacenamiento en frío es el que no requiere energía para la retención a largo plazo, se presentará en forma de medios de cinta u ópticos.

10. La nube híbrida será cada vez más atractiva. Con la creciente competencia entre los proveedores de nube pública, el menor costo de ancho de banda WAN y la capacidad de controlar el movimiento de la nube pública con los metadatos que se mantiene dentro de los servidores de seguridad de una nube privada, la nube híbrida se convertirá en una plataforma rentable para correr cargas de trabajo empresariales.

[email protected]

Publicaciones relacionadas

Mira también
Cerrar
Botón volver arriba


Share via
Copy link
Powered by Social Snap