Mucho se está hablando en los últimos años acerca de estas tres cosas y casualmente lo han hecho de forma consecutiva. Todo esto despertó mi curiosidad y decidí investigar un poco más acerca de todo ello y ver si entre ellas existía alguna relación. Pero, antes de nada, lo primero sería definir y ubicar cada una de ellas.
Empezaré por el IoT, siglas que se corresponde al Internet of the Things o Internet de las Cosas. Es un concepto creado por Kevin Ashton en el año 1999, que hace referencia a "la conexión permanente de los objetos cotidianos entre sí, a través de internet y con repositorios de datos, donde 'depositan' la información que recogen del entorno".
Estos “objetos cotidianos”, irían desde los más pequeños (relojes, móviles y sensores médicos, ambientales e industriales), pasando por los de tamaño mediano (televisores, frigoríficos, lavadoras y otros electrodomésticos inteligentes), hasta los más grandes (coches, edificios y maquinaria agrícola e industrial).
Los datos son el corazón de esta tecnología y su potencial es casi infinito ya que todo puede ser medido. Actualmente se estima que hay 25.000 millones de dispositivos conectados en el mundo. Para 2020, la cifra ascenderá a 50.000 millones. Con lo que se prevé que la cantidad de datos disponibles en el mundo aumente de forma exponencial en los próximos años.
Lo de la generación de datos no es algo exclusivo del IoT, es inherente a la actividad humana. Lo venimos haciendo desde que las épocas más antiguas de nuestra historia (los sumerios crearon la escritura en tres o cuatro a.C.). Pero algo muy interesante es que más del 90% de los datos existentes en la actualidad han sido creados en los últimos dos años y el 80% de esta información es no-estructurada, es decir, que no tienen estructura interna identificable. Es un conglomerado masivo y desorganizado de varios objetos que no tienen valor hasta que se identifican y almacenan de forma estructurada. Por ejemplo, dentro de las tablas de una base de datos.
Este aumento en la velocidad de generación de datos se empezó a marcar en el año 2005, cuando nace la web 2.0, donde predomina el contenido creado por los usuarios. Ante esta nueva situación surgió Hadoop, un framework “Big Data”, capaz de hacer frente a lo que se conoció como las 3 V’s (Volumen, Variedad y Velocidad, aunque últimamente se han ampliado a 5 v's del Big Data), es decir, fue capaz de procesar una gran Volumen de información, Variada (no solo texto sino también audio, imágenes, etc.) y que se generaba a mayor Velocidad. Así, el Big Data puede definirse como la recolección y procesamiento masivo de información (estructurada, semiestructurada y no-estructurada) que tras ser organizada, sirva para extraer información útil.
Con el tiempo Hadoop fue madurando, en 2009 se creó su primera versión estable, y entorno a él surgieron herramientas que la ayudarían en su tarea, formando lo que se conoce como ecosistema Hadoop. Así, en 2012 se produjo lo que se conoce como el Big Data Bang. En este año, también surgiría Spark, otra de las grandes herramientas del Big Data, que junto con Hadoop, marcó el camino a seguir en este campo.
Por último, estaría la Inteligencia Artificial (IA), que fue definida por John McCarthy en 1956, como “Conjunto de técnicas que sirven para dotar de inteligencia a una máquina”. Es decir, un conjunto de programas informáticos, basados en algoritmos, que imitan el comportamiento humano.
Teniendo en cuenta esta definición y el hecho de un algoritmo es un conjunto ordenado de operaciones que llegan a un resultado, la cantidad y grado de organización de los datos es vital para el desarrollo de la inteligencia artificial. Respecto a esto, un dato interesante es que la IA se viene investigando y desarrollando desde 1956, pero ha sido a partir de 2016 cuando está empezando dar resultados que la están catapultando. Algo similar ocurre con el IoT; aunque empezó a utilizarse en 1999, su uso y desarrollo masivo no se ha hecho hasta 2017.
¿Tendrá todo esto que ver con que el hecho de Big Data Bang se produjera en 2012?.
Pues lo cierto es que sí, y es que el desarrollo y maduración de las tecnologías Big Data ha permitido una mayor capacidad de almacenamiento de datos procedentes del IoT (y otras fuentes) y el procesamiento y análisis de estos para generar grandes conjuntos de información estructurada, que sirvan para entrenar los algoritmos y llevar la IA a unas metas no conseguidas hasta la fecha.
De hecho, estas sinergias existentes en el Big Data, el IoT y la IA, son la base para el desarrollo de los Smart Systems (Smart Cities, Smart Health, Smart Home, etc.) de los que tanto se habla actualmente y que dicen, serán el futuro de la humanidad.
Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.
El Internet de las cosas o Internet Of Things (IoT) es una tecnología que está creciendo a pasos agigantados, como demuestra un reciente estudio publicado por CB Insights, que asegura que las StartUps que desarrollan IoT han recibido un 30% más de inversión en el primer cuatrimestre de 2016 que en el último periodo del año pasado.
Esto pone de relieve el interes que grandes personalidades y entes empresariales como Intel Capital, Qualcomm Ventures, Adreessen Horowitz o Cisco, una de las multinacionales americanas pioneras en la apuesta por el Internet de las cosas, tienen en el desarrollo de esta nueva tecnología.
¿Qué es el Internet Of Things? El concepto de IoT podemos remontarlo hasta finales de los años 90, cuando en 1999 el investigador del MIT Kevin Ashton propuso esta idea, claramente inspirada en obras de ciencia ficción. El Internet de las cosas se fundamenta en la interconexión de los objetos que nos rodean. Implantando sistemas de generación y medición de datos en los objetos y conectándolos a Internet, se generará un enorme volumen de datos con múltiples usos, entre ellos el camino hacia las ciudades inteligentes (de las que hablaremos la semana que viene).
Asuntos cotidianos como quedarse sin alimentos por olvidar hacer la compra, tener medicamentos caducados o quedarse sin gasolina podrían pasar a la historia, ya que si un botiquín genera datos sobre sus componentes, un servidor puede alertar al usuario de la caducidad de sus medicinas, o incluso si se programa, mandar un pedido de compra a una farmacia que sirva a domicilio. Lo mismo sucede con el frigorífico. Si nuestra nevera detectara que el cajón de las naranjas se queda vacío, podría encargar nuevas naranjas e incluso seleccionar la forma y tamaño de las mismas si la tienda en cuestión incorporara también tecnología de IoT.
Pero la aplicación del Internet de las cosas no solo se reduce al ámbito cotidiano, sino que puede emplearse en todos los objetos de otros ámbitos, como el industrial y el de la salud, dos de los sectores que más están invirtiendo en Internet Of Things, y como consecuencia, en la contratación de científicos de datos que puedan manejar los enormes volúmenes de información generados. Desde controlar el gasto en energía en las empresas hasta aprender hasta el más mínimo detalle las costumbres y gustos de nuestros clientes.
El desarrollo del Internet Of Things trae consigo el crecimiento y revolución de otros sectores, como el de la seguridad necesaria para que estos datos potencialmente peligrosos para la intimidad de las personas no caigan en manos no deseadas, o el peligro que puede suponer automatizar transacciones económicas o funcionamiento de equipos de trabajo.
Internet Of Things demuestra que este es el momento del Big Data, sirve como argumento confirmatorio de las buenas previsiones realizadas por McKinsey sobre los 1,2 millones de científicos de datos que serán demandados en Europa hasta 2020. Si quieres unirte al carro de la revolución de los datos, apúntate a nuestro máster intensivo y fórmate en Data Tech.
Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.