Tag Archive: Big Data

  1. Axtel lanzó convocatoria mundial para Nave, su programa de aceleración

    Leave a Comment

    La compañía mexicana de TIC, Axtel anunció que Nave, su aceleradora corporativa, abrió por primera vez, su convocatoria a empresas de todo el mundo. Mediante su nuevo aliado Mass Challenge, aceleradora basada en Boston y con sedes en Ciudad de México, Londres, Austin, Jerusalén y Ginebra, espera encontrar a las empresas más disruptivas para su programa de aceleración 2018.

    Mass Challenge cuenta con más de 150 partners corporativos y es considerada por Pitchbook como la tercera aceleradora de mayor impacto del mundo.

    Sofía Machuca, gerente de innovación y emprendimiento de Axtel destacó que “Uno de nuestros principales objetivos este año es identificar a las mejores scale-ups para que ingresen a nuestro programa de aceleración, podamos trabajar con ellos y conocerlos de cerca durante cinco meses. Al concluir el programa, evaluaremos algún tipo de colaboración con Axtel, ya sea como aliados comerciales o proveedores, o bien explorar un esquema de co-creación o inversión”.

    Y agregó: “Estamos buscando scale-ups con tecnología disruptiva para que formen parte de la iniciativa de transformación digital que Axtel está impulsando, tanto internamente como con sus clientes”.

    Nave busca empresas en etapa de escalamiento (scale-ups), que vayan dirigidas al mercado empresarial y que estén alineadas a algunas de las siguientes tecnologías disruptivas: Big Data, Internet de las cosas, inteligencia artificial, movilidad, seguridad y Blockchain. Las empresas interesadas pueden aplicar directamente en la página web, antes del 23 de marzo, fecha de cierre de la convocatoria.

  2. Big Data, presente en tres escenarios del ecosistema digital

    Leave a Comment

    La firma Hocelot especializada en la obtención y verificación de datos de personas físicas en tiempo real, indicó en un breve informe algunos de los usos más desconocidos del Big Data en la vida diaria y los tres ambientes dentro del ecosistema tecnológico en los que está más presente:

    Smart Cities: utilizan el Big Data para optimizar factores como los flujos de tráfico, basándose en los datos que llegan en tiempo real, desde la información de las redes sociales hasta el tiempo meteorológico. Las ciudades embarcadas en proyectos de este tipo dan un vuelco radical a sus infraestructuras de transporte público, así como otros procesos de suministros que trabajan de forma colaborativa.

    Un ejemplo claro de cómo esta tecnología ayuda a mejorar son las señales de tráfico y semáforos, que actúan automáticamente para minimizar embotellamientos, adaptándose a cada escenario.

    Sanidad: otra área de uso de datos masivos colectivos es el de la codificación de material genético. La aplicación en este sector abre la posibilidad de conocer detalles sobre antepasados y con ello poder luchar contra enfermedades hereditarias.

    También puede recomendar qué dietas o alimentos son más adecuados para el genotipo de cada uno, o para descubrir cómo y porqué se activan determinados genes que pueden derivar en enfermedades crónicas. En la actualidad, la capacidad de procesamiento de plataformas de análisis de datos permite decodificar cadenas enteras de ADN en cuestión de minutos, lo que da lugar a comprender mejor las enfermedades, sus desencadenantes y patrones de propagación.

    Reducir la criminalidad: Gracias a la cantidad de datos que se almacenan, las fuerzas de seguridad pueden realizar informes detallados acerca de la criminalidad, dando respuesta a preguntas como cuándo y dónde se da, cuáles son los delitos más comunes por región, redistribuir los agentes en base a dichas tasas, etc. La mezcla de datos extraídos de las denuncias presentadas, unido a la información del censo local, así como de otras fuentes de internet, permiten mejorar la seguridad de los ciudadanos.

    Antonio Camacho, fundador de Hocelot destacó que “El Big data es la gran revolución de esta era. A día de hoy, somos plenamente conscientes del impacto que ha tenido en el entorno profesional, ya que los datos se han configurado como el eje central de la estrategia empresarial de cualquier compañía, por lo que todos hemos tenido que reinventarnos y cambiar la forma de hacer las cosas”.

    Y agregó: “Es fundamental ser capaz de analizar todos estos mensajes. Nosotros contamos con servicios de Smart Data y Smart Analytics que permiten verificar esos datos en tiempo real, obteniendo de este modo información objetiva y útil para la toma de decisiones”.

    María Farías, Editor

  3. Big Data, habrá un 129% de aumento de gasto en América Latina

    Leave a Comment

    En América Latina el 75% de las empresas hablan de transformación digital y la están adoptando. Para IDC, el súbito interés en dicha transformación tiene que ver con una mejor experiencia del cliente y una transferencia radical en el valor percibido de servicios que hace a diversas verticales buscar este cambio. La oferta y el valor están haciendo que empresas ganen y pierdan relevancia para el mercado, y dos habilitadores clave en este sentido, son las redes y la nube.

    Oliver Aguilar, gerente de investigación para IDC México explicó que “Grandes corporaciones como los bancos, se definen ya como empresas de datos, no de dinero. La empresa líder toma riesgos en pro del compromiso con sus clientes: utiliza red, nube, movilidad y seguridad, pero no los ven como elementos de diferenciación en procesos internos, sino como formas de brindar mejores servicios a su mercado, utilizan IoT y Big Data para incrementar su relevancia”.

    Aún existen una gran cantidad de empresas que piensan que la lucha es hacer que las tecnologías adoptadas previamente sigan funcionando y esa es en parte la realidad. Utilizan tecnología de redes, movilidad y nube para mejorar procesos internos, se preocupan por aumentos en la productividad y en formas de reducir costos. Sin embargo las empresas líderes van más allá, asumen estas adopciones como algo básico, y buscan generar mayor adquisición y retención de clientes, están pensando en nuevos productos y servicios mejorados con analítica, y sobre todo, en nuevas experiencias para sus clientes a través de una mezcla de interacciones y resultados y lo hacen asumiendo un gran riesgo.

    Hacia 2020, para América Latina, la compra de dispositivos 4G crecerá un 57%, la inversión en sensores IoT un 120% mientras que los servicios de conectividad crecen un 145%, la infraestructura de nube un 184%, y las aplicaciones 113%. El esquema que se conoce va a cambiar radicalmente durante los siguientes 3 años: más dispositivos que utilizan más aplicaciones y se conectan entre ellos para compartir información que será almacenada y analizada.

    En la región, también hacia 2020, habrá un incremento del 129% de gasto en Big Data y en analítica; las empresas invertirán USD 13,804 millones para fortalecer la experiencia omnicanal. Las verticales que más están cambiando, a nivel Latinoamérica, son las que tienen mayor contacto con usuarios, como retail, banca, hotelería y salud. Por otro lado, manufactura y logística, también experimentan parte de esta transformación, aunque por un tema principalmente empresarial.

    En México solo el 5% de las empresas monetizan estos datos refinados, es decir, utilizando la información para realmente producir ingresos extras mediante su venta. IDC prevé que esta situación cambie a medida que el potencial y el valor de los datos se hagan más evidentes con los éxitos de líderes arriesgados, que se comienzan a plantear cómo sería cobrar a sus clientes un resultado, más que un producto o un servicio, con la única brújula que los datos y los escenarios que pueden predecir.

  4. La economía mal llamada colaborativa puede reducir el desempleo y dinamizar el mercado

    Leave a Comment

    La 12va reunión del Foro de Gobernanza de Internet (IGF) tuvo lugar, en esta edición en Ginebra. Una de las actividades más destacadas fue el IGF LAC Space, un espacio para discutir temas relacionados con la realidad latinoamericana. Durante todo el evento y con más de un centenar de workshops, se tocaron temas que giraron en torno a seguridad cibernética y derechos digitales, el futuro de la gobernanza digital a nivel mundial, el acceso y el desarrollo, y las tecnologías emergentes, Big Data, temas de Internet & jurisdicción, infraestructura y tecnologías emergentes, desarrollo de capacidades y temas de género.

    El panel sobre El Futuro del trabajo: ¿La Gig Economy funciona en los países en desarrollo? (The Future of Work: Is the Gig Economy Working for Developing Countries?) abordó el tema del trabajo en la era digital y discutir cómo el trabajo está cambiando en la era de la Inteligencia Artificial y la aparición de plataformas laborales digitales, y cómo las diferentes partes interesadas están respondiendo a estos cambios. Los cambios en la naturaleza del trabajo en los países en desarrollo la automatización, la Inteligencia Artificial y las plataformas de gig Economy.

    Durante la reunión del Multistakeholder Advisory GroupMAG– del IGF se contó con la participación de Pablo Bello director ejecutivo de ASIET y Liu Zhenmin, vice secretario general de Naciones Unidas para Asuntos Económicos y Sociales (DAES).

    Este panel que contó con Bello y Zhenmin fue moderado por Hernán Galperin profesor asociado en la Annenberg School for Communication (de la Universidad de Southern California) y contó con la participación de Helani Galpaya CEO en LIRNEasia, Alison Gillwald CEO de Research ICT Africa (RIA), Valerio DeStefano profesor de derecho del trabajo KU Leuven University, Jacki O’Neill investigadora en Microsoft India, Sunil Johal director de políticas en The Mowat Centre (think tank independiente en políticas públicas en la Universidad de Toronto), Vigneswara Ilavarasan experto en IT outsourcing, y Mona Badran profesora en la Facultad de Economía y Ciencias Políticas en la Universidad del Cairo.

    Pablo Bello, mencionó sus dudas acerca de qué tipo de desarrollo se está logrando con la Gig Economy: “una cuestión importante es cómo se organizarán los trabajadores en este tipo de economías a la hora de defender sus derechos. La economía mal llamada colaborativa puede reducir el desempleo y dinamizar el mercado, pero es también la economía de la precariedad y la desigualdad. Es necesario definir un marco regulatorio para el trabajo digno en la era digital. La Gig Economy tiene sus puntos a favor pero prefiero realizar un abordaje frente a ella que facilite crear políticas para lidiar con las amenazas mencionadas”.

    Por otro lado, Jackie O’Neill, expuso los hallazgos clave de la investigación de su equipo sobre los trabajadores de Amazon Mechanical Turk y Ola. Aunque se trata de crowd-works muy diferentes, los trabajadores se enfrentan al mismo problema, porque su trabajo está mediado por plataformas digitales privadas.

    Esta relación plantea dos problemas: autonomía reducida y competencia global entre los proveedores de servicios individuales. Lo primero significa que, a pesar del discurso de mayor flexibilidad, los trabajadores en realidad tienen que adaptarse a los horarios de los clientes. Para este último, existen varias barreras que impiden que los crowd workers en los países en desarrollo obtengan un salario digno.

    Helani Galpaya, identificó, tres amplias categorías de trabajadores, clasificadas por ingresos: menos de $ 0.01 por trabajo, alrededor de $ 5 y entre $ 300 y $ 500. En todos los casos, recibir el pago era el problema más importante, ya que tanto los recaudadores de impuestos como los sistemas bancarios solo reconocen el empleo formal.

  5. Cuatro tendencias tecnológicas de cara al 2018

    Leave a Comment

    El proveedor de alojamiento web y telecomunicaciones francés OVH lanzó sus predicciones para el 2018, la misma apunta en cuatro direcciones, empezando por la propia nube.

    Antonio Pizarro, sales team leader de OVH destacó que “La tendencia para 2018 debería pasar por entornos abiertos y multicloud. Para seguir contribuyendo a la innovación, el sector cloud tiene que ser necesariamente interoperable y reversible”. Una nube “más grande, más abierta”, en la que estaremos todos, en su opinión.

    En segundo lugar, continuó Pizarro, habrá que estar alerta con los ataques DDoS. “El hecho de que cada vez haya más objetos conectados a la red mundial implica que crezca el número de sistemas vulnerables. Y parece ser que esta será una tendencia al alza con la llegada masiva de los dispositivos IoT”. OVH registró una media de 2.000 ataques DDoS diarios durante 2017.

    Sobre este punto, un problema que podría surgir es cómo distinguir entre el flujo de datos masivo de los sensores conectados y un ataque DDoS real.

    El ejecutivo de OVH también habló de la “explosión de datos: Big Data, inteligencia artificial y machine learning” que se vivirá en meses venideros, y que es otra tendencia a tener en cuenta por sus necesidades de almacenamiento y procesamiento.

    Finalmente, no hay que olvidar que el 25 de mayo comenzará a aplicarse el nuevo Reglamento General de Protección de Datos de la Unión Europea o RGPD. Esto “es una oportunidad para ser más transparentes y ganarse la confianza de los usuarios”, destacó Pizarro, que explicó que los datos estarán “más seguros”.

    También se espera innovación en las infraestructuras empresariales, crecimiento económico y generación de empleo.

  6. Huawei: FusionInsight la plataforma de Big Data más innovadora de Telecomunicaciones

    Leave a Comment

    La solución de analítica de Big Data PaaS de Huawei, FusionInsight fue nombrada como “La plataforma de Big Data más innovadora de Telecomunicaciones”, durante el Telco Data Analytics Summit USA 2017.

    Huawei desarrolló una innovadora solución basada en una arquitectura ligera de código abierto PaaS para los operadores de telecomunicaciones. Para un operador grande, ofrece capacidades de servicio a nivel empresarial que ayudan a duplicar la tasa de utilización de recursos, reducir el periodo de meses a horas en el intercambio de datos entre departamentos, y acortar la aplicación de Big Data en TTM (tiempo de salida al mercado) de tres a seis meses, a una cuestión de semanas.

    Con la digitalización tomando fuerza a nivel global, los operadores tradicionales de telecomunicaciones han visto caer sus ganancias, y enfrentan el desafío de reducir los costos y aumentar los ingresos.

    En comparación con las principales compañías de internet, los operadores tienen pocas ventajas en cuanto a eficacia en operaciones e innovación empresarial. El factor clave para esta diferencia es que las principales compañías de internet han roto islas de datos y construido activos de datos como el núcleo de una plataforma unificada de Big Data, proporcionando servicios bajo demanda, tanto para operaciones internas como externas en las empresas, lo que mejora la eficiencia operativa y acelera la innovación empresarial.

    Los operadores de telecomunicaciones enfrentan mayores desafíos para desarrollar capacidades de servicios de Big Data, por ejemplo: una estructura de organización más compleja, una mayor cantidad de centros de datos heterogéneos y herramientas existentes de análisis de datos de múltiples proveedores.

    La firma continuará ayudando a los operadores a establecer grandes plataformas de nube de datos corporativas en administración y programación unificada de recursos de centros de datos heterogéneos, mecanismo de múltiples usuarios adaptándose a la organización de los operadores, varias herramientas de Big Data como servicios en la nube, catálogo de activos de datos colaborativos, y observaciones; además de medidas unificadas orientadas al usuario para construir grandes ecosistemas, los cuales ayudan a los operadores a lograr operaciones digitales.

     

  7. Avaya: enfocada en realidad aumentada e IoT para el sector financiero

    Leave a Comment

    Las soluciones de Engagement que Avaya desarrolla, están destinadas a alcanzar transformación digital, mejorar los servicios móviles e incorporar las tecnologías emergentes, esto ha sido a raíz de las predicciones de analistas del sector tecnológico de grandes cambios en la industria de Servicios Financieros y Seguros (FSI por sus siglas en inglés) para los próximos tres años.

    Estas empresas necesitan una base de comunicaciones altamente flexible, abierta y segura con la que puedan enfrentar confiadas el futuro. Los retos de la industria van desde una disminución de la lealtad, especialmente de los consumidores más jóvenes, operaciones complejas, requisitos de seguridad y normatividad que reducen el ritmo de esta transformación, y una mayor competencia de empresas no tradicionales como Apple y Google.

    Estos desafíos y el rápido crecimiento de las transacciones móviles hacen que las compañías de FSI compitan por implementar una amplia gama de estrategias de transformación digital.

    La biometría, la Inteligencia Artificial, la realidad mixta (virtual y aumentada), el Internet de las cosas y la analítica, así como el Blockchain ya prometen tener un impacto significativo en la forma en que se realiza la banca. Los fundamentos tecnológicos nunca han sido más importantes para permitir una transformación rápida, altamente segura y rentable y evitar demoras y callejones sin salida.

    Laurent Philonenko, SVP estrategia corporativa y desarrollo y CTO de Avaya dijo al respecto: “Este es un momento de cambios profundos para muchas compañías, en especial para aquellas en la industria de servicios financieros y seguros. Comprendemos sus desafíos únicos y sabemos cómo ayudarlos a cerrar rápidamente la brecha entre dónde están hoy y dónde deben estar”.

    Para todas estas demandas, el portafolio de soluciones y servicios de software de Avaya, incluidos Breeze,  Oceana y Oceanalytics, que están más enfocados en realidad aumentada y virtual, Internet de las cosas, Big Data y Analytics y Blockchain. Por otro lado, ofrece una plataforma que permite una base flexible y segura hacia una transformación continua con una interrupción mínima a medida que surgen nuevas demandas y tecnologías, haciendo hincapié en:

    Al trabajar con empresas como Nuance, Verbio, la empresa ha integrado la biometría en sus soluciones de experiencia del cliente para ayudar a las compañías de FSI a mejorar la seguridad de las transacciones móviles a la vez que ofrece una autenticación más rápida y sin inconvenientes.

    En cuanto a Inteligencia Artificial (IA) la automatización de mensajería inteligente habilita las capacidades de chat-bot y respuesta automatizada para SMS y conversaciones de chat a través de la web; se integra con plataformas de redes sociales como Facebook Messenger, Twitter, Instagram, Kik y WeChat. La IA puede atender una serie de casos de uso, incluido el autoservicio fácil, el enrutamiento inteligente, el aumento de agentes.

    La realidad virtual y aumentada puede ofrecer una experiencia de inmersión y colaboración atractiva especialmente para los millennials y los consumidores más jóvenes.

  8. Futurecom2017: La transformación digital debe promover la inclusión social

    Leave a Comment

    (Desde San Pablo, Brasil) Uno de los paneles esperados de Futurecom 2017 fue el de Transformación digital: desafíos y oportunidades de los países latinoamericanos. José Otero director de 5G Américas obró como moderador, mientras que los panelistas fueron: Enrique Medina CPO de Telefónica, Gabriel Lombide presidente de URSEC Uruguay, Germán Bacca Medina comisionado de la CRC (comisión de regulación de comunicaciones de Colombia, Jose Antonio Rios presidente y CEO de CELISTICS, Luís Minoru Shibata CSO de TIM, Miguel Garcia director de América Latina de Arsitec, Pablo Bello Arellano director ejecutivo de ASIET, Paola Sardi Madueño directora estratégica de Deloitte y Rodrigo Bertoloto manager de VMWare.

    El panel de Futurecom discutió sobre las grandes oportunidades de negocios derivadas de las tecnologías digitales,  así como los desafíos a enfrentar en relación a los marcos regulatorios, educación, política industrial, nuevas competencias profesionales, inclusión social en la era digital y cobertura de banda ancha.

    “No hablamos de aumentar la carga regulatoria, sino adaptarla a la digitalización” sostuvo Enrique Medina sobre las cargas regulatorias. Y continuó: “Ya superamos la sociedad de Internet, vamos hacia la sociedad de los datos”.

    “No hay política más importante en América Latina que la digitalización de los procesos. Cerrar la brecha digital” destacó Pablo Bello, haciendo hincapié en la necesidad que tiene la región –y en la que los panelistas coincidieron- sobre cerrar la brecha digital y el desafío que representa el cambio de paradigma en las comunicaciones. Y agregó: “Cerrar la brecha digital en Latinoamérica es una necesidad y se requiere más inversión y políticas públicas”.

    “Sin duda no se puede desconocer la existencia de los usuarios, la relación tradicional ha cambiado” dijo Germán Bacca Medina, acerca del cambio en las relaciones con los usuarios y cómo estos han dejado de serlo para convertirse en clientes.

    Por otra parte, y continuando en esta línea, José Antonio Ríos, añadió: “Para llegar al desarrollo, no solo se necesitan las redes sino incluir a todos en la era digital. Los gobiernos, privados y empresas deben ofrecer igualdad de acceso a las personas, recordemos que no todos los ciudadanos tienen acceso a las tecnologías y que es necesario que se invierta para que ésta situación cambie.

    “En la transformación digital las personas son importantes y las Tics son un vehiculo” sostuvo Rodrigo Bertolo de VMWare, a propósito de las palabras de Ríos.

    Paola Sardi Madueño coincidió en que “El gobierno y la tecnología deben colaborar para alcanzar el desarrollo”. Estas palabras fueron apoyadas por Luis Minoru Shibata: “La conectividad es la vía para la transformación digital”.

    Volviendo sobre las regulaciones, el panel sostuvo la obligación de que las regulaciones cambien y se adapten a la nueva era digital que el mundo transita. “Lo virtual y lo real es lo mismo la regulación debiera ser parecida. Es un error hablar de vieja y nueva tecnología. Las regulaciones deben adaptarse y transformarse” sostuvo Bello al respecto.

    Miguel García finalizó: “En lugar de penalizar a los operadores, se debería premiar cuando demuestran inversión”.

  9. Atos lanzó el primer centro de operaciones de seguridad prescriptivo

    Leave a Comment

    En respuesta a las preocupaciones de la comunidad internacional de enfrentar a los cada vez más frecuentes ataques informáticos, Atos acaba de lanzar el primer Centro de Operaciones de Seguridad prescriptivo del mundo (SOC, Security Operations Center, según sus siglas en inglés).

    La nueva solución permite prevenir amenazas de ciberseguridad antes de que ocurran a partir del análisis de grandes cantidades de datos obtenidos de internet y de redes internas de los clientes combinados con el conocimiento de las amenazas neutralizadas en el pasado.

    Luis Casuscelli, director de Big Data & Cybersecurity de Atos para América del Sur explicó; “De este modo, el tiempo de detección y neutralización de ataques es significativamente menor si se lo compara con el tiempo que tardan las soluciones que existen actualmente”.

    El SOC recibe soporte de tecnologías McAfee, logrando que el tiempo de detección de amenazas se reduzca a menos de un minuto, versus un promedio de 190 días que demoran las soluciones que existen actualmente. A su vez, el tiempo total de respuesta y recuperación posterior a la detección del problema puede reducirse de dos meses a unos pocos minutos.

    Su desarrollo fue pensado para enfrentar el creciente número de ataques informáticos cada vez más sofisticados, como el ransomware, DDoS, botnets y Advanced Persistent Threats. Entonces los clientes pueden concentrarse en su actividad principal en lugar de preocuparse por la seguridad de sus datos.

    El SOC prescriptivo aprende en forma continua a partir de amenazas neutralizadas con anterioridad para articular respuestas automáticas en tiempo real, esto tiene base en el know how de análisis de Big Data y de Machine Learning de Atos y en combinación con la tecnología de McAfee. Utilizando tecnologías propias tales como el Atos Data Lake Appliance, que se basa en la plataforma bullion, y la investigación en inteligencia artificial de la compañía.

    El Centro de Operaciones además utiliza las tecnologías Open Data Exchange Layer (Open-DXL) y el Ciclo de Vida de Defensa contra Amenazas de McAfee para mejorar la automatización, coordinación y reactividad inmediata de las respuestas de seguridad con el fin de reemplazar respuestas de seguridad manuales, que tienden a ser fragmentadas y a perder tiempo.

    “Al combinar Big Data, análisis de seguridad y supercomputación, Atos ofrece a sus clientes la oportunidad de estar un paso adelante ante los ataques informáticos. El análisis profundo de datos y el monitoreo en tiempo real permiten una seguridad prescriptiva única y continua. Nuestros clientes ahora pueden prevenir y neutralizar las amenazas antes de que éstas alcancen sus objetivos,” concluyó Casuscelli.

  10. Big Data, la profesión del presente y futuro

    1 Comment

    Lo cierto es que desde hace ya varios años es una profesión que está siendo demandada por muchas empresas que buscan tener un análisis de datos en tiempo real.

    Ciertamente no es algo que pueda hacer cualquiera y los sectores que más suelen requerir de este análisis son la banca y las finanzas, puesto que guarda relación con detalles como la inversión y el análisis de riesgo.

    Obviamente y con más razón, también las empresas que se dedican a marketing digital requieren de estos servicios de análisis para una mejor comprensión de resultados.

    Sin embargo, cada vez son más las empresas que se suman a contar con un especialista propio en Big Data, ya que desean tener un procesamiento de datos en tiempo real para así lograr alinear la tecnología con sus metas de negocio.

    Pero, ¿qué es Big Data?

    El concepto es realmente ambiguo, ya que suelen brindársele diversas interpretaciones. Sin embargo, es un término que hace referencia a los datos masivos, es decir, aquellos que son de gran cantidad así que superan la capacidad del software convencional como para ser capturados y procesados en tiempo real.

    Así que toda esa cantidad de información o de datos masivos no puede ser procesada por medios tradicionales. El avance de la tecnología ha hecho que las empresas tengan que salirse de lo convencional y enfrentar nuevos desafíos con herramientas novedosas.

    Big Data fue un término ideado por D.J. Patil y Jeff Hammerbacher, quienes se encargaban de los datos y la analítica de Linkedin y Facebook respectivamente durante el año 2008.

    ¿Por qué las empresas necesitan un especialista en este campo?

    Las organizaciones han tenido que enfrentarse a una cantidad de información y data con la que antes no tenían que lidiar, y todo se ha debido a los avances de la tecnología.

    Ahí es donde vienen a ser protagonistas los expertos en Big Data: las empresas se han visto en la necesidad de contar con profesionales en analítica que logren gestionar y realizar conclusiones inteligentes de la enorme cantidad de información que se genera.

    Sin embargo, la demanda y la oferta no guardan ninguna relación: es difícil encontrar a alguien que cumpla con el perfil, así que las empresas han disparado el salario para estos especialistas.

    ¿Por qué Big Data es la profesión del futuro?

    De acuerdo a un informe de  McKinsey Global Institute (2011), se contempla que para el 2018 únicamente en los Estados Unidos empresas se verían en la necesidad de afrontar su negocio con 190.000 profesionales que cuenten con grandes habilidades en analítica.

    Asimismo, se requerirán 1.5 millones de managers y analistas que cuenten con el know-how para analizar Big Data así como el ROI (retorno sobre inversión)  y tomar decisiones efectivas para los negocios o empresas.

    La razón principal es que la catarata de datos nunca termina; las empresas se tienen que enfrentar diariamente con ellos y es necesario el análisis y las métricas para la toma de decisiones.

    Así que toda empresa debería contar con al menos un especialista en Big Data para un correcto tratamiento de datos.

    ¿Cómo es el perfil de un especialista en Big Data?

    Las empresas, a partir de este año, suelen pedir características muy específicas a la hora de requerir los servicios de un especialista en Big Data, y es que van más allá de que sepa de números y sea un analítico.

    De este modo a las compañías no les cuesta tanto reclutar profesionales con este perfil, y a su vez economizan recursos. Estos cursos internos pueden durar entre 3 o 4 meses, suficientes para formar de manera básica a un profesional en Big Data.

    Por Emanuel Olivier Peralta

    Fundador y CEO en Genwords