Cuando no sabes mucho sobre el mundillo del Big Data & Analytics, puede amedrentar un poco leer cualquier cosa sobre el tema, aunque solo sea por las palabras que se utilizan. Aquí tienes una guía rápida de las más utilizadas y su significado.

Big Data:

Término que hace referencia a la gran cantidad de datos variados y no siempre estructurados que se generan con cada vez más rapidez y que pueden generar valor a nuestra empresa. Para recopilar, limpiar, procesar, analizar y visualizar todos esos datos necesitamos conocer y manejar un largo conjunto de herramientas.  Aprende a hacerlo con nuestro master experto Big Data Analytics.

¿Quieres saber más sobre la definición de Big Data? Te recomiendo que te pases por el artículo “Las cinco v’s del Big Data”.

Inteligencia de Negocio (Business Intelligence o BI):

Uso de aplicaciones e infraestructuras de Big Data para acceder y analizar la información de forma que podamos tomar mejores y más óptimas decisiones que aumenten nuestro rendimiento.

Internet de las cosas (IoT):

Se refiere a los objetos cotidianos que están conectados permanente entre si y a repositorios de datos que almacenan la información que recogen de su entorno.

Descubre más sobre la relación entre Big Data, IoT e Inteligencia Artificial en este artículo.

Inteligencia Artificial (Artificial Intelligence):

Es el área de la computación que tiene por objeto la creación de máquinas inteligentes que se comporten y reaccionen de forma similar a los humanos.

Algoritmo

Especificación matemática categórica que resuelve un problema complejo en base a un conjunto de datos inicial. Consiste en múltiples pasos que aplican en orden una serie de operaciones.

Machine Learning:

Es un campo dentro de la Inteligencia Artificial que tiene por objetivo que las máquinas aprendan a resolver una determinada tarea partir de la experiencia, es decir, los datos. De este modo se facilita que una máquina llegue a la solución de un problema sin que un humano tenga que programar explicitamente qué pasos tiene que seguir para ello.

¿Quieres saber más sobre la definición de Machine Learning? Te recomiendo que te pases por el artículo “Machine Learning. Una introducción

Deep Learning:

Es a su vez una disciplina del Machine Learning que se caracteriza no solo por ser capaz de aprender a solucionar una determinada tarea a partir de los datos, sino porque además aprende a representar los datos de para llegar a esa solución. En contraste con el Machine Learning más elemental, que requiere de que los datos estén muy bien estructurados para funcionar correctamente. Esta característica permite al Deep Learning atacar a problemas hasta ahora impensables de solucionar para una máquina (visión artificial, reconocimiento de voz...)

Datalake:

Repositorio de gran cantidad de datos, generalmente en bruto y sin estructurar.

Datawarehouse:

Repositorio de gran cantidad de datos, ordenados, limpiados e integrados que están listos para su análisis.

Minería de datos (data mining):

Búsqueda de patrones en grandes sets de datos para refinarlos, clasificarlos, hacerlos comprensibles y poderlos explotar.

Computación en la nube (Cloud Computing)

A diferencia de la computación tradicional on premise (es decir, con las máquinas y demás aparatos físicos cableados y montados in situ), el Cloud computing ofrece al usuario la posibilidad de usar recursos de computación desentendiéndose de mantenimiento hardware y pagando por lo que usa. Los distintos proveedores de Cloud disponen además de un amplio ecosistema para facilitar al usuario la gestión y configuración de la infraestructura deseada en el Cloud.

MÁSTER EXPERTO BIG DATA ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

Mucho se está hablando en los últimos años acerca de estas tres cosas y casualmente lo han hecho de forma consecutiva. Todo esto despertó mi curiosidad y decidí investigar un poco más acerca de todo ello y ver si entre ellas existía alguna relación. Pero, antes de nada, lo primero sería definir y ubicar cada una de ellas.

IoT

Empezaré por el IoT, siglas  que se corresponde al Internet of the Things o Internet de las Cosas. Es un concepto creado por Kevin Ashton en el año 1999, que hace referencia a "la conexión permanente de los objetos cotidianos entre sí, a través de internet y con repositorios de datos, donde 'depositan' la información que recogen del entorno".

Estos “objetos cotidianos”, irían desde los más pequeños (relojes, móviles y sensores médicos, ambientales e industriales), pasando por los de tamaño mediano (televisores, frigoríficos, lavadoras y otros electrodomésticos inteligentes), hasta los más grandes (coches, edificios y maquinaria agrícola e industrial).

Los datos son el corazón de esta tecnología y su potencial es casi infinito ya que todo puede ser medido. Actualmente se estima que hay 25.000 millones de dispositivos conectados en el mundo. Para 2020, la cifra ascenderá a 50.000 millones. Con lo que se prevé que la cantidad de datos disponibles en el mundo aumente de forma exponencial en los próximos años.

Big Data

Lo de la generación de datos no es algo exclusivo del IoT, es inherente a la actividad humana. Lo venimos haciendo desde que las épocas más antiguas de nuestra historia (los sumerios crearon la escritura en tres o cuatro a.C.). Pero algo muy interesante es que más del 90% de los datos existentes en la actualidad han sido creados en los últimos dos años y el 80% de esta información es no-estructurada, es decir, que no tienen estructura interna identificable. Es un conglomerado masivo y desorganizado de varios objetos que no tienen valor hasta que se identifican y almacenan de forma estructurada. Por ejemplo, dentro de las tablas de una base de datos.

Este aumento en la velocidad de generación de datos se empezó a marcar en el año 2005, cuando nace la web 2.0, donde predomina el contenido creado por los usuarios. Ante esta nueva situación surgió Hadoop, un framework “Big Data”, capaz de hacer frente a lo que se conoció como las 3 V’s (Volumen, Variedad y Velocidad, aunque últimamente se han ampliado a 5 v's del Big Data), es decir, fue capaz de procesar una gran Volumen de información, Variada (no solo texto sino también audio, imágenes, etc.) y que se generaba a mayor Velocidad. Así, el Big Data puede definirse como la recolección y procesamiento masivo de información (estructurada, semiestructurada y no-estructurada) que tras ser organizada, sirva para extraer información útil.

Con el tiempo Hadoop fue madurando, en 2009 se creó su primera versión estable, y entorno a él surgieron herramientas que la ayudarían en su tarea, formando lo que se conoce como ecosistema Hadoop. Así, en 2012 se produjo lo que se conoce como el Big Data Bang. En este año, también surgiría Spark, otra de las grandes herramientas del Big Data, que junto con Hadoop, marcó el camino a seguir en este campo.

Inteligencia Artificial

Por último, estaría la Inteligencia Artificial (IA), que fue definida por John McCarthy en 1956, como “Conjunto de técnicas que sirven para dotar de inteligencia a una máquina”. Es decir, un conjunto de programas informáticos, basados en algoritmos, que imitan el comportamiento humano.

Teniendo en cuenta esta definición y el hecho de un algoritmo es un conjunto ordenado de operaciones que llegan a un resultado, la cantidad y grado de organización de los datos es vital para el desarrollo de la inteligencia artificial. Respecto a esto, un dato interesante es que la IA se viene investigando y desarrollando desde 1956, pero ha sido a partir de 2016 cuando está empezando dar resultados que la están catapultando. Algo similar ocurre con el IoT; aunque empezó a utilizarse en 1999, su uso y desarrollo masivo no se ha hecho hasta 2017.

¿Tendrá todo esto que ver con que el hecho de Big Data Bang se produjera en 2012?.

Pues lo cierto es que sí, y es que el desarrollo y maduración de las tecnologías Big Data ha permitido una mayor capacidad de almacenamiento de datos procedentes del IoT (y otras fuentes) y el procesamiento y análisis de estos para generar grandes conjuntos de información estructurada, que sirvan para entrenar los algoritmos y llevar la IA a unas metas no conseguidas hasta la fecha.

IoT Big Data e Inteligencia Artificial

De hecho, estas sinergias existentes en el Big Data, el IoT y la IA, son la base para el desarrollo de los Smart Systems (Smart  Cities, Smart Health, Smart Home, etc.)  de los que tanto se habla actualmente y que dicen, serán el futuro de la humanidad.


MÁSTER EXPERTO BIG DATA ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

La semana pasada hablábamos del concepto del Internet de las cosas (o Internet Of Things), y de cómo interconectaba y recogía los datos generados por los objetos que nos rodean, amén de indicar que tal volumen de datos requería la asistencia de expertos científicos de datos. Esta semana vamos a hablar de Smart Cities, que es una de las aplicaciones centrales hacia las que confluyen las distintas tecnologías de Big Data aplicadas al Internet Of Things.

Se estima que hasta 2020 se invertirá una media de cuatrocientos mil millones de dólares al año en el desarrollo de Smart Cities. Para que este desarrollo tenga lugar, es necesaria la colaboración de entidades tanto privadas como públicas, empresas de software y, por supuesto, expertos en Big Data.

Dejando a un lado el gran inconveniente de las Smart Cities que es su enorme coste de implementación, poseen ventajas en numerosas situaciones de la vida urbana, como el tratamiento de residuos, el ahorro energético, la mejora en la eficiencia del tráfico, la realización de compras, el control de la nutrición, el registro de multas, etc.

Hay cientos de usos que dependen de las variables a medir. Pongamos que introducimos sensores en los coches y en las aceras; podríamos saber en tiempo real dónde hay sitios libres para aparcar; si todos los coches lo tienen, podríamos evitar accidentes al frenar automáticamente antes de una colisión; si todas las calles los tienen, tendríamos una conducción plenamente automática. Del mismo modo, si controlamos el tráfico y creamos un programa de aprendizaje automático que sepa interpretar los datos, podría alterar el orden de los semáforos para conseguir un tráfico más fluido en la ciudad. También, controlando qué medios de locomoción utilizan las personas, se podría estudiar de qué manera favorecer el transporte público, por ejemplo.

La eficiencia energética dio un paso de gigante al emplear los diodos emisores de luz (leds) para sustituir las fuentes tradicionales de iluminación, pues en un led, al no depender la luz de la incandescencia de una resistencia ni de electrocutar nubes de gases, sino del mero paso de la corriente a través de semiconductores que al polarizarse sueltan fotones, posee una eficiencia próxima al 95%. Aun así, la Smart City puede mejorar este rendimiento, haciendo que las aceras detecten si hay alguien en sus alrededores, de manera que, cuando no haya nadie, las farolas estén apagadas.

Hay otro sector que evolucionará a la par que las Smart Cities, el de la seguridad. Automatizar procesos urbanos tiene numerosas ventajas, pero también eleva al máximo los efectos dañinos de un posible pirateo del sistema. Pensemos en qué pasaría si alguien pirateara los sistemas de circulación que hemos mencionado.

Aunque todavía estamos lejos de presenciar una Smart City completa, sí que hay numerosos proyectos en el mundo en los que colaboran estrechamente las empresas y los organismos públicos para ir creando Smart cities

Smart cities en el mundo

.- Glasgow. Tal como cita el periodista Bernard Marr en Forbes, Glasgow lidera el proyecto Future City, con una inversión superior a los 24 millones de libras para modernizar la localidad escocesa. Entre las aplicaciones puestas en marcha destaca la iluminación urbana inteligente y la detección de demanda energética para realizar una distribución de energía más eficiente, además del análisis de datos para mejorar el uso de transporte público.

.- Dubai. El centro de los Emiratos Árabes Unidos destaca como la ciudad con un plan más completo y ambicioso de Smart City, estructurado en torno a 8 sectores bien diferenciados: telecomunicaciones, turismo, herramientas, educación, construcción, seguridad pública, transporte y salud.

.- India. Uno de los gigantes asiáticos también muestra un elevado interés en el desarrollo de ciudades inteligentes. El gobierno indio ha establecido un plan de ayuda público al desarrollo de Smart Cities que alcanzará un total de 100 ciudades. De momento, las 20 que ya están en desarrollo han recibido 8000 millones de dólares para su implementación.

.- Londres y Bristol encabezan la lista de las ciudades “más inteligentes” de Reino Unido. Londres tiene éxito al desarrollar tecnología para descongestionar el tráfico urbano y mejorar el transporte; mientras que Bristol destaca por su proyecto Bristol is open, que a partir de la colaboración del ayuntamiento, la universidad y diversas empresas privadas, para dejar toda la información pública abierta al público, salvo aquellos datos que incurran en la intimidad personal.

Como vemos, el futuro apunta al Big Data. No te quedes atrás y apúntate a nuestro máster Datahack si quieres formar parte de proyectos como estos.

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

chevron-down