Human Generated Data Analytics: El lenguaje es un instrumento básico para los humanos. Ha permitido desarrollar nuevas formas de pensamiento y el intercambio de información entre las personas. Sin embargo, tanto si hablamos de voz como de texto, el lenguaje es un instrumento dotado de una elevada imprecisiòn y ambigüedad. Hasta ahora, las herramientas automáticas tenían muchas dificultades para interpretar la información transmitida a través del lenguaje, lo que hacía imprescindible la participación de una persona. Sin embargo, la información generada y difundida a través de los medios y las redes de comunicación es inmanejable si el procesamiento se hace manualmente. Son imprescindibles herramientas automáticas que se encarguen de «entender» lo que se dice. A partir de ese momento también se pueden crear herramientas que se encargan de realizar acciones (clasificar la información, recomendar, responder, etc.) Para poder desarrollar estas soluciones, son imprescindibles las nuevas tecnologías que son capaces de manejar y procesar grandes volúmenes de información (Big Data), tanto en tiempo real como en batch, así como las técnicas de IA y machine learning que son capaces de aprender y adaptarse de forma continua a una información tan compleja y diversa. GRADIANT cuenta con una amplia experiencia en el procesamiento de información textual extraída de medios sociales, cuya aplicación es clave como elemento competitivo fundamentalmente en el ámbito comercial: análisis de opinión, segmentación de clientes, recomendadores, reputación online, etc.
Machine Generated Data Analytics: La cantidad de información que actualmente se almacena en relación a diferentes procesos y sistemas (tanto industriales como logísticos), servicios (ventas, conexiones entre usuarios, consumo eléctrico, etc.) o tráfico de datos (logs en routers y equipos, entre otros) no solo resulta ingente e inmanejable de forma manual, sino que además aumenta continuamente con el transcurso del tiempo con la popularización, por ejemplo, del Internet de las Cosas (IoT). El análisis de estos datos puede proporcionar información muy valiosa acerca del comportamiento de estos procesos; se pueden prevenir problemas en un determinado proceso industrial a través de la detección de resultados o medidas anómalas (sin la necesidad de haber definido previamente qué medida es o no es anómala) o determinar qué eventos están relacionados dentro de un proceso más complejo facilitando su gestión a través de la predicción, sabiendo de antemano que un evento desencadenará otro con cierta probabilidad. A partir de toda esta información se pueden realizar simulaciones que, además, permitan predecir qué recursos van a ser necesarios, pudiendo optimizar su uso de forma automática y proactiva anticipando los acontecimientos futuros. Por tanto, son necesarias herramientas y tecnologías que sean capaces de procesar en tiempo real grandes volúmenes de información, así como algoritmos capaces de aprender de forma autónoma a partir de la información que reciben, con independencia de las fuentes, y de la reacción de los usuarios y operadores (técnicas de Machine Learning y Artificial Intelligence). Es también necesario buscar nuevas formas de visualización para mostrar la información relevante a todos los usuarios de manera clara, eficaz y atractiva, de manera que les permita distinguir rápidamente lo que en realidad importa en medio de un océano de información.
Líneas de Trabajo:
- eLearning
- Data Analytics (Human-Generated)
- Data Analytics (Machine-Generated)
- Video Análisis
- eHealth Data Analytics
