Como prometimos hace dos semanas, vamos a indagar en el otro significado de la narrativa de la visualización en Big Data. Se usan algoritmos avanzados de Generación de lenguaje natural (en adelante, GLN), programas capaces de generar textos coherentes en relación a los datos analizados. Estos programas reciben otros nombres, como “Story Generator Algorithms” (SGA), porque al fin y al cabo lo que generan no es lenguaje, sino historias, discursos textuales con mensajes correctamente codificados en lenguas humanas.

En la ficción

Remontémonos atrás en el tiempo para descubrir el primer sistema cuentacuentos artificial, el “Novel Writer System”, desarrollado por Sheldon Klein en 1973, generando artificialmente historias de misterio y asesinatos de 2.100 palabras. Para ello, se le proporcionó una descripción del mundo donde tendrían lugar los hechos y las características de los participantes, incluyendo los vínculos emocionales entre ellos y su predisposición a la violencia o al sexo. Se le restringieron los motivos de asesinato a 4 razones: envidia, miedo, furia o avaricia. El programa se basó en dos algoritmos: un conjunto de reglas para los posibles cambios sucedidos en el mundo asignado y un grupo de escenas relacionadas con el género de la historia que se iba a contar. Aunque el programa creó varios relatos, las únicas diferencias eran las identidades de los asesinos, de las víctimas y de los que resolvían el caso.

El siguiente invento lo encontramos en 1977, con el sistema Talespin, que generaba historias simples conociendo al personaje y su objetivo. En 1983, Universe fue creado para intentar suplir de tramas una telenovela cuyo argumento nunca terminaba. En 1993, Turner creó Minstrel, un programa capaz de generar historias de medio folio sobre Arturo y los Caballeros de la Mesa Redonda, construyendo la historia a partir de un refrán. Brutus llegó en 1999 para, haciendo honor a su nombre, construir historias de traición capaces de hacerse pasar por relatos escritos por una persona normal.

Fuera de la ficción

Fuera de la ficción, quizá el primer programa en procesar lenguaje natural fuera el software ELIZA, construido en el MIT entre 1964 y 1966 por Joseph Weizenbaum. El programa, tal como cita Janet H. Murray en su famosa obra sobre nuevos modelos narrativos Hamlet en la holocubierta, era capaz de dialogar con personas reales que chatearan con ella, construyendo preguntas a partir de las frases que escribían, de manera que funcionaba como muchos psicoanalistas. Su éxito llegó a ser tan enorme que recibía numerosas peticiones de gente que quería hablar con Eliza para resolver sus problemas, a modo de psicoterapia.

El moderno software avanzado de GLN busca automatizar la traducción de datos en mensajes coherentes para el usuario, ya que como argumentan en Narrative Science: “Los datos no son el objetivo. No son la respuesta. Los datos no son las conclusiones, los datos se encargan de ser el camino que conduce al auténtico objetivo: la comunicación de los hallazgos en el momento correcto a los destinatarios correctos”.

Cómo funcionan

Los sistemas para el GLN funcionan gracias a un motor semántico, que al analizar los datos reconoce cuáles son útiles, viendo si hay una variación importante entre los datos de dos periodos diferentes. También examina qué es lo que realmente le importará a su público objetivo; qué información de toda la obtenida es realmente demandada por el receptor de la misma. El secreto del éxito para el GLN se basa en la construcción de un buen sistema semántico, tal como cita Dan Woods en Forbes.

Y tú, ¿qué sistema opinas que es mejor para la comunicación de los resultados de la investigación del Big Data? ¿La visualización de datos mediante gráficos?, la construcción de historias y el Big Data Storytelling? ¿O la automatización de la explicación de resultados mediante el GLN? Decidas lo que decidas, para llegar a la narrativa primero tienes que analizar los datos. Si quieres aprender, apúntate a nuestro máster Datahack.

MÁSTER EXPERTO EN BIG DATA ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

Dejando a un lado el Internet Of Things y las Smart Cities, otro de los aspectos que facilita el análisis rápido de grandes volúmenes de datos es el deep learning y la inteligencia artificial, software capaz de analizar datos en tiempo real y adelantarse a futuros problemas, aprendiendo a sacar sus propias conclusiones sin necesidad de un programador.

La prueba de que el sector de la inteligencia artificial es uno de los más prometedores en la tecnología de la información es el interés de las grandes empresas por adquirir startups del sector, como demuestra la creciente actividad de Google, Facebook, Apple, Intel o Amazon en este negocio, con cuatro compras destacadas en lo que llevamos de año.

Tal como indica el interesante artículo de CB Insights, más de 20 empresas privadas dedicadas a tecnologías avanzadas de inteligencia artificial han sido adquiridas por las grandes corporaciones en los últimos 3 años.

Inteligencia Artificial

Inteligencia Artificial - línea cronológica de adquisiciones / FUENTE: CB Insights

Atendiendo a los rumores sobre un nuevo algoritmo para el buscador de Google capaz de reconfigurarse a sí mismo en función de las necesidades, el rey de los buscadores destaca como líder de la inversión en Inteligencia Artificial. De hecho, es el que más empresas ha adquirido, un 25% del total de empresas compradas. Entre estas incorporaciones destacan la compra en 2013 de DNNResearch, empresa especializada en Deep Learning y redes neuronales y fundada en la Universidad de Toronto, que le permitió a Google mejorar su buscador de imágenes. También destaca la adquisición en 2014 de la compañía británica DeepMind Technologies por unos 600 millones de dólares, cuya tecnología pudimos ver todos hace unos meses cuando el ordenador venció al campeón mundial del juego tradicional chino “Go”.

Amazon es otra de las multinacionales que compiten en el sector de la inteligencia artificial, enfocando su atención en el machine learning, con la adquisición de la californiana Orbeus. Salesforce se apuntó a la carrera en 2016, con la adquisición de dos compañías: MetaMind y el servidor de código abierto para machine learning ProductionIO.

Otras adquisiciones son, por ejemplo, Vision Factory, empresa dedicada al reconocimiento de textos y objetos mediante deep learning, por parte de Facebook; o Whetlab y Madbits por Twitter, dedicadas, respectivamente, a acelerar y mejorar los procesos de machine learning y a la identificación del contenido de imágenes mediante algoritmos de Deep Learning.

Si la inteligencia artificial es tu campo de interés, apúntate a nuestro máster Big Data, que culmina con un módulo de algoritmos avanzados de Deep Learning.

La semana pasada hablábamos del concepto del Internet de las cosas (o Internet Of Things), y de cómo interconectaba y recogía los datos generados por los objetos que nos rodean, amén de indicar que tal volumen de datos requería la asistencia de expertos científicos de datos. Esta semana vamos a hablar de Smart Cities, que es una de las aplicaciones centrales hacia las que confluyen las distintas tecnologías de Big Data aplicadas al Internet Of Things.

Se estima que hasta 2020 se invertirá una media de cuatrocientos mil millones de dólares al año en el desarrollo de Smart Cities. Para que este desarrollo tenga lugar, es necesaria la colaboración de entidades tanto privadas como públicas, empresas de software y, por supuesto, expertos en Big Data.

Dejando a un lado el gran inconveniente de las Smart Cities que es su enorme coste de implementación, poseen ventajas en numerosas situaciones de la vida urbana, como el tratamiento de residuos, el ahorro energético, la mejora en la eficiencia del tráfico, la realización de compras, el control de la nutrición, el registro de multas, etc.

Hay cientos de usos que dependen de las variables a medir. Pongamos que introducimos sensores en los coches y en las aceras; podríamos saber en tiempo real dónde hay sitios libres para aparcar; si todos los coches lo tienen, podríamos evitar accidentes al frenar automáticamente antes de una colisión; si todas las calles los tienen, tendríamos una conducción plenamente automática. Del mismo modo, si controlamos el tráfico y creamos un programa de aprendizaje automático que sepa interpretar los datos, podría alterar el orden de los semáforos para conseguir un tráfico más fluido en la ciudad. También, controlando qué medios de locomoción utilizan las personas, se podría estudiar de qué manera favorecer el transporte público, por ejemplo.

La eficiencia energética dio un paso de gigante al emplear los diodos emisores de luz (leds) para sustituir las fuentes tradicionales de iluminación, pues en un led, al no depender la luz de la incandescencia de una resistencia ni de electrocutar nubes de gases, sino del mero paso de la corriente a través de semiconductores que al polarizarse sueltan fotones, posee una eficiencia próxima al 95%. Aun así, la Smart City puede mejorar este rendimiento, haciendo que las aceras detecten si hay alguien en sus alrededores, de manera que, cuando no haya nadie, las farolas estén apagadas.

Hay otro sector que evolucionará a la par que las Smart Cities, el de la seguridad. Automatizar procesos urbanos tiene numerosas ventajas, pero también eleva al máximo los efectos dañinos de un posible pirateo del sistema. Pensemos en qué pasaría si alguien pirateara los sistemas de circulación que hemos mencionado.

Aunque todavía estamos lejos de presenciar una Smart City completa, sí que hay numerosos proyectos en el mundo en los que colaboran estrechamente las empresas y los organismos públicos para ir creando Smart cities

Smart cities en el mundo

.- Glasgow. Tal como cita el periodista Bernard Marr en Forbes, Glasgow lidera el proyecto Future City, con una inversión superior a los 24 millones de libras para modernizar la localidad escocesa. Entre las aplicaciones puestas en marcha destaca la iluminación urbana inteligente y la detección de demanda energética para realizar una distribución de energía más eficiente, además del análisis de datos para mejorar el uso de transporte público.

.- Dubai. El centro de los Emiratos Árabes Unidos destaca como la ciudad con un plan más completo y ambicioso de Smart City, estructurado en torno a 8 sectores bien diferenciados: telecomunicaciones, turismo, herramientas, educación, construcción, seguridad pública, transporte y salud.

.- India. Uno de los gigantes asiáticos también muestra un elevado interés en el desarrollo de ciudades inteligentes. El gobierno indio ha establecido un plan de ayuda público al desarrollo de Smart Cities que alcanzará un total de 100 ciudades. De momento, las 20 que ya están en desarrollo han recibido 8000 millones de dólares para su implementación.

.- Londres y Bristol encabezan la lista de las ciudades “más inteligentes” de Reino Unido. Londres tiene éxito al desarrollar tecnología para descongestionar el tráfico urbano y mejorar el transporte; mientras que Bristol destaca por su proyecto Bristol is open, que a partir de la colaboración del ayuntamiento, la universidad y diversas empresas privadas, para dejar toda la información pública abierta al público, salvo aquellos datos que incurran en la intimidad personal.

Como vemos, el futuro apunta al Big Data. No te quedes atrás y apúntate a nuestro máster Datahack si quieres formar parte de proyectos como estos.

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

chevron-down