Términos del big data que todo profesional de TI debe saber: Comstor

Compartir nota

imagen-comstor-big-data-tecladoLa unidad de negocio de Westcon-Comstor y mayorista de Cisco, enumera 16 términos del big dat, que a su consideración son importantes de dominar por todo profesional de TI.

Saber qué significa cada término relacionado al big data es fundamental para aplicar en el día a día de los negocios. Sin embargo, muchos de los vocablos que existen hoy no poseen una definición exacta, pues se transforman en la medida que son usados, explicó el mayorista. A continuación, la lista de palabras esenciales para los que trabajan con esta tecnología:

  1. Algoritmo: Secuencia lógica, finita y con instrucciones que forman una fórmula matemática o estadística para realizar el análisis de datos.
  2. Analytics: Es la forma de capturar informaciones, procesarlas y analizarlas para que se conviertan en insights.
  3. BI (Business Inteligence): Es el método que transforma informaciones almacenadas y analizadas en datos que son estratégicos para una empresa y que se convierten en ganancia para el negocio.
  4. Data scientist: Es el analista de datos. La persona que capturará los insights, las principales informaciones dentro de un gran volumen de información.
  5. Small data: Mucho más pequeño que el big data, se refiere al análisis que se hace con pocas fuentes de datos.
  6. Datos estructurados y no estructurados: Los estructurados tienen una organización lógica, pero con posibilidades pequeñas de extracción de informaciones para el big data. Por otro lado, los no estructurados son desorganizados, como los mensajes en emails y redes sociales, pero permiten una gran posibilidad de extracción de insights comerciales.
  7. Dark data: Datos desconocidos que pueden perderse o almacenarse, sin la posibilidad de accederse o analizarse en caso de que el sistema no esté configurado para eso.
  8. Data cleansing: Método que mantiene los bancos de datos libres de informaciones inconsistentes o irrelevantes.
  9. Data lake: Es un lago de datos en el cual se almacenan informaciones en su estado natural y en gran volumen, es allí donde el Data Scientist debe sumergirse para encontrar sus principales insights.
  10. Data mining: Es el proceso previo al Analytics, es la minería de los datos, la forma de descubrir informaciones relevantes.
  11. Dirty data: Son los registros que no se han limpiado. Datos que se capturaron, almacenaron y que se usarán, pero que precisan ser primeramente trabajados.
  12. Fast data: Los datos rápidos son los que pierden valor a lo largo del tiempo y que, por eso, necesitan ser analizados prácticamente en tiempo real para que generen respuestas estratégicas para las empresas que necesitan dar respuestas y tomar decisiones de forma instantánea.
  13. Slow data: Es lo opuesto de Fast data y hace referencia a las informaciones que se pueden capturar en el Data lake para un análisis posterior. Esos datos no necesitan un análisis en tiempo real, con tiempo de respuesta menor.
  14. Medium data: Término que define una cantidad intermediaria de datos que son necesarios para que se generen análisis e insights. Es un tamaño menor de información que el generado por el.
  15. Predictive analytics: El análisis predictivo es la utilización de datos para predecir tendencias o eventos futuros.
  16. Sentiment analysis: El análisis de sentimiento son técnicas usadas para identificar el sentimiento de un individuo sobre determinada cuestión. Hay muchos términos que surgen a cada momento, muchas veces creados por proveedores de herramientas y analistas de consultorías para intentar ofrecer un nuevo servicio. Generalmente son funciones que ya existen y que quien trabaja con big data ya está acostumbrado, pero con un nuevo nombre o definición.

 

Es importante que se conozcan todas esas palabras, pero es aún más importante que se enfoque en la forma en la que se puede usar el big data para que se generen resultados que puedan transformar una empresa, concluyó Comstor.

 

contactame@esemanal.mx

Compartir nota

Autor Redacción