La multiplicidad de dispositivos inteligentes dio origen a la Big Data

Por Pablo García, Gerente de Data Center y Seguridad, CenturyLink Chile

¿Sabía usted que cada 48 horas generamos tantos datos en Internet, como los que ha producido la humanidad desde el inicio de la civilización hasta el Siglo XXI? Al menos eso es lo que señala Google. En la actualidad, nos encontramos con una multiplicidad de dispositivos inteligentes y diversidad de vías de comunicación que han provocado este crecimiento exponencial en el volumen de datos, dando origen al fenómeno que desde hace un tiempo se conoce como Big Data.

Cabe destacar que, cuando hablamos de Big Data no sólo nos referimos a grandes volúmenes de información, sino también a variedad, velocidad, y valor. Justamente, el gran atractivo para las empresas, está en poder sustraer, componer y/o producir información que aporte un valor diferencial en base a este gran cúmulo de datos. La complejidad del proceso de transformación de estos volúmenes de datos en información confiable, útil y oportuna presenta un reto de gran envergadura.

Los desafíos están principalmente centrados en recolectar datos que se generan desde múltiples fuentes; reconocer, analizar y entender los datos para poder generar información válida y sustancial; proteger adecuadamente la información, para cumplir con este paso se debe tener en cuenta la legislación de protección a la información; almacenar y resguardar eficientemente los datos; garantizar la performance y disponibilidad de la información; y planificar y ejecutar respuestas óptimas. Las empresas que más se destaquen llevando adelante esta etapa del proceso son las que van a lograr los mejores resultados desde el punto de vista de la efectividad y eficiencia.

Los métodos de análisis y consulta de grandes volúmenes de datos son fundamentalmente diferentes de los análisis estadísticos tradicionales basados en pequeñas muestras. Estos datos son a menudo más dispersos, dinámicos, heterogéneos, y podríamos decir que son también más complejos. Muchas veces, va a ser necesario tomar en cuenta los metadatos e inclusive para poder automatizar el proceso, nos veremos obligados a incorporar definiciones semánticas.

Podemos reconocer que, en determinadas situaciones, pueden ser menos confiables. Sin embargo, aún en estas condiciones, pueden ser más valiosas para el negocio que las muestras pequeñas que se manejan en los análisis tradicionales. Además, este gran volumen de datos interconectados forma grandes redes de información que se pueden explorar para compensar los datos faltantes, para cotejar los casos conflictivos, o para validar su veracidad.

Aunque siempre ha sido una necesidad disponer de profesionales especializados en análisis de datos, los perfiles requeridos para poder llevar adelante este análisis cuando se trata de grandes volúmenes, son un poco diferentes. Se necesita una base sólida en tecnologías de información y comunicaciones, conocer en profundidad las estrategias, los mercados, los productos/servicios, y los procesos dentro de las organizaciones.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias relacionadas
Total
0
Share