10 tendencias tecnológicas impulsadas por los datos

La consultora global de mercados estima que para el año 2022 el manejo manual de datos disminuirá 45%.

Los datos siguen marcando la dirección en que las nuevas tecnologías se desarrollan y la firma Gartner, Inc. Identificó que entre las principales tendencias con un gran potencial disruptivo se encuentra la Analítica Aumentada, la Inteligencia Continua y la Inteligencia Artificial.

De acuerdo con Donald Feinberg, Vicepresidente y Analista de Gartner, así como la transformación digital plantea el desafío de de manejar una gran cantidad de datos, también lo es la oportunidad de utilizar las capacidades de procesamiento que provee la Nube para programar y ejecutar algoritmos que ayuden a explotar el potencial de los datos enfocados.

“Las estructuras de procesamiento rígidas poco a poco quedan obsoletas ante el gran tamaño, complejidad y la nueva naturaleza de los datos. La supervivencia de las empresas dependerá de la adopción de nuevas estructuras cuya velocidad de acción e inteligencia aplicada en el procesamiento de datos les brinde a los empresarios la capacidad de responder a cambios continuos”, explicó Feinberg, a través de un comunicado.

Dentro de las tendencias tecnológicas que marcan los datos y que Gartner recomienda para que las empresas las integren en su desarrollo está:

  1. Analítica Aumentada.- Ayuda a transformar la forma en que los datos son analizados, consumidos y compartidos. Se espera que para el 2020 sea uno de los principales canales de compras de analítica y Business Intelligence.
  2. Manejo de los datos aumentados.- Impulsa las capacidades del Machine Learning y la Inteligencia Artificial para clasificar con mayor calidad los datos, permitiendo a los usuarios enfocarse en tareas de mayor complejidad y valor.
  3. Inteligencia Continua.- Para 2022 ésta será una de las principales tecnologías empleadas para mejorar la toma de decisiones en las empresas gracias a su capacidad de procesar datos actuales e históricos y ordenarlos de manera estratégica para responder a determinados eventos en tiempo real.
  4. Inteligencia Artificial explicable.- Los líderes de implementación deben lograr que los modelos actuales sean explicables, pues los modelos actuales no justifican sus recomendaciones, o su toma de decisiones. A pesar de su precisión los humanos requieren interpretar sus argumentos.
  5. Gráficos.- Modelar, explorar y mostrar datos de forma eficiente puede construir interrelaciones entre silos de datos, sin embargo, aún no se cuenta con las habilidades especializadas para lograrlo, por lo cual se estima que el procesamiento gráfico de sistemas y bases de datos crezca 100% cada año hasta el 2022 haciendo que la ciencia de datos sea más adaptable y menos compleja.
  6. Tejido de datos.- Facilita el acceso a bases y permite que los datos sean compartidos en un marco de trabajo seguro y consistente para que sean diseñados y trabajados al mismo tiempo por un equipo y no de manera aislada.
  7. Procesamiento de Lenguaje Natural o Analítica conversacional.- Gartner estima que para el 2020, 50% de las consultas de analítica se realicen a través de ordenes de voz o mediante el procesamiento natural del lenguaje, obligando a las herramientas de analítica a contar con interfaces más sencillas o a integrar a un asistente virtual.
  8. Inteligencia Artificial comercial y Machine Learning.- Gartner predice que para 2022, 75% de las soluciones para usuario final que actualmente se generan a través de técnicas de IA y ML se desarrollarán a través de soluciones comerciales y no con plataformas de código libre.
  9. Blockchain.- el valor de esta tecnología es ofrecer confianza entre los participantes de una red, sin embargo, hacen falta algunos años para que cuatro o cinco tecnologías de blockchain se popularicen.
  10. Servidores de memoria persistentes.- Esta tecnología ayudará a reducir los costos de adoptar arquitecturas de almacenamiento y a mejorar las cargas de trabajo de alto rendimiento, ya que la memoria persistente brinda la posibilidad de reducir la complejidad de las arquitecturas de datos y de mantener bajos costos.

“La cantidad de datos está creciendo rápidamente, a la misma velocidad que lo está haciendo la urgencia de traducir los datos en valores, y las nuevas cargas de trabajo de los servidores están exigiendo no solo un desempeño más veloz de los procesadores sino una memoria enorme y un almacenamiento más rápido”, aseguró Donald Feinberg, presidente de la conferencia Data & Analytics Summit 2019.

Visto 128 veces Modificado por última vez en Miércoles, 07 Agosto 2019 14:11
Inicia sesión para enviar comentarios