En el artículo anterior, ya vimos que el Big Data vine de lejos, aunque todavía no existiera un término como tal. En este artículo lo retomaremos donde lo dejamos y continuaremos con este viaje a través de la historia del Big Data hasta nuestro días.
En 1980, I.A. Tjomsland afirmó en una charla que la primera ley de Parkinson se aplicaba a los datos: “los datos se expanden para llenar el espacio disponible”. Esto es porque las penalizaciones de almacenar datos obsoletos son menos importantes que las de eliminar datos potencialmente útiles».
En esta década comienzan a utilizarse los datos en la toma de decisiones y tras el éxito de los sistemas de MRP, se introdujo la Planificación de recursos de fabricación (MRP II). Estos eran para optimizar los procesos de fabricación sincronizando materiales con necesidades de producción. También aumentan en cantidad y sofisticación los sistemas de Planificación de recursos empresariales (ERP), popularizándose al final de la década el término Business Intelligence (BI) o Inteligencia empresarial.
En 1985, Barry Devlin y Paul Murphy definieron para IBM una arquitectura para los informes y análisis de negocio, base del almacenamiento de datos, que debe ser homogéneo. Además, se espera que los datos sean de alta calidad e históricamente completos y exactos.
Y no podíamos cerrar la década sin hablar del mayor generador de datos que se creó: la world wide web, fundada en 1989 por Tim Berners-Lee.
Los años 90 se estrenaron con el primer informe de Bases de Datos de Windows, que hizo más asequible el uso de la Inteligencia Empresarial. Además, en esta década se produjo un crecimiento explosivo de la Word Wide Web y de la potencia informática.
Pero no fue hasta 1997 cuando se mencionó por primera vez el término Big Data, en un artículo de Michael Cox y David Ellsworth, investigadores de la NASA. En él, afirmaron que el ritmo de crecimiento de los datos empezaba a ser un problema para los sistemas informáticos. Dos años después, Kevin Ashton acuñaba el término "Internet de las cosas" o IoT.
En 2001, Doug Laney publica las 3 V’s del Big Data de Gartner (hoy ya son hasta 5 V’s) y las siglas SaaS (software como servicio) aparecen por primera vez en un artículo.
En 2003 Google publica GFS y MapReduce, que serán las bases de Hadoop, creado con código abierto en 2006 para gestionar la explosión de datos de la web. Hadoop permite almacenar, procesar y analizar grandes cantidades de datos. A partir de entonces, entran en escena cada vez más empresas dedicadas a la gestión de datos y las tecnologías en la nube que hicieron que el Big Data cobrara cada vez más protagonismo, aunque no fue hasta 2012, cuando Obama ganó las elecciones gracias a los datos masivos, que se popularizó en los medios de comunicación.
Por supuesto, la historia del Big Data sigue en este preciso instante. En los últimos años han surgido nuevos términos como Smart Cities o ciudades inteligentes, location intelligence… Pero creo que hemos definido los hitos más importantes en la historia del Big Data con lo que os hemos contado. Lo que queda claro al investigar para este artículo es que el avance del -Big data es imparable y que esto es solo la punta del iceberg.
Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.
Últimamente no paramos de oír hablar sobre Big Data en todas partes pero ¿cuál es el origen del término? En datahack somos curiosos y no hemos podido evitar investigarlo.
El Big Data ya lo dejé definido cuando hablamos de sus cinco v’s, pero voy a simplificar bastante para ahondar para este artículo, que al final se centra más en la historia que en la definición en sí. Así pues, simplemente diremos que se trata de procesar y analizar en un tiempo razonable una inmensa cantidad de datos, tanto estructurados como no estructurados, para optimizar la toma de decisiones.
El primer gran problema con los datos masivos se dio con el Censo de los Estados Unidos del año 1880. Tardaron ocho años en tabularlo y calcularon que el de 1890 hubiera necesitado más de 10 años, así que ¡tuvieron que buscar avances en la metodología!
En ese contexto, Hollerith inventó su famosa máquina tabuladora, que permitió realizar el trabajo aproximadamente en un año. No obstante, los datos generados siguieron en aumento y hasta la máquina tabuladora se veía en problemas para procesarlo todo. Esto se conoce como la «explosión de la información», ¡y todavía estamos en los años 40 del siglo pasado!
Ante este panorama, Claude Shannon (1948) publicó la Teoría matemática de la comunicación, determinando los requisitos de datos mínimos para transmitir la información a través de canales afectados por ruido. Gracias a ese trabajo, se redujo el volumen de datos y se creó gran parte de la infraestructura actual.
Pocos años después, Fritz-Rudolf Güntsch (1956) desarrolló el concepto de memoria virtual, que trata el almacenamiento finito e infinito. De esta forma, se podían procesar los datos sin las limitaciones de memoria de hardware que provocaban la partición del problema.
Hans Peter Luhn, en el año 1958, ya comenzó a hablar de Business Intelligence, cuya definición, comparada con la del Big Data, podéis leer en este artículo.
En la década de los 60 surge la Ley Bibliotecaria de Aumento Exponencial (Price,1961), que indicaba que el aumento de datos se multiplicaba por dos cada 15 años y por 10 cada 50. Además, la mayoría de organizaciones empezaron a implementar sistemas de computación centralizados para automatizar los sistemas de inventario.
Otro hito lo tenemos en William C. Dersch. Creó la máquina Shoebox (1962) de reconocimiento de voz, capaz de entender 16 palabras y diez dígitos en inglés hablado. Por supuesto, no había suficiente potencia de procesamiento y los costes eran demasiado altos para que fuera realmente útil, pero fue un primer paso bastante importante para esta tecnología.
En 1970, Edgar F. Codd, habló por primera vez de las Bases de Datos Relacionales. Explicó una forma de acceder a la información almacenada en bases de datos de gran tamaño sin saber cómo estaba estructurada la información o dónde localizarla. Casi todas las transacciones de datos actuales se basan en ellas.
Poco después, en 1975, se realizó el Censo del Flujo de la Información de Japón, para controlar el volumen de información que circulaba por el país. Se percataron de que el suministro de información superaba al volumen de información consumida, y que la tendencia era el aumento de la demanda de comunicación bidireccional y personalizada.
En esta época, comenzaron a popularizarse los PC en las empresas y surgieron los sistemas de Planificación de necesidades de material (MRP) para ayudar a las empresas de fabricación a organizar y planificar su información.
Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.
Somos conscientes de que la presencia de las mujeres en la tecnología es muy baja. Un día como hoy, en el que celebramos la presencia de la mujer trabajadora, queremos aportar nuestro granito de arena dentro del peso de la mujer en la ciencia y en la tecnología.
Nuestro master Big Data Analytics nace en el año 2016 con una primera clase de 10 personas en Madrid. Desde entonces, datahack ha completado 21 promociones del master en distintas localizaciones (Madrid, Barcelona, Sevilla y Bilbao). En el primer año el 10,3% fueron alumnas; podemos decir con orgullo que, a día de hoy, 8 de marzo del 2019, nuestras alumnas del año son el 27.9%, lo que supone un crecimiento más que considerable.
Estamos especialmente orgullosos de esta cifra, siendo conscientes de que debemos seguir trabajando por aumentar la visibilidad de las mujeres en el Big Data & Analytics.
También queremos hacer homenaje a las mujeres que han sido referentes dentro del mundo de la tecnología, destacando las siguientes:
Inmigrante polaca afincada en Francia, única mujer que ha ganado dos premios Nobel (de los 4 casos que existen). Descubridora del Polonio, el Radio y la radioactividad.
Bajo su dirección, se llevaron a cabo los primeros estudios en el tratamiento de neoplasias con isótopos radiactivos. Fundó el Instituto Curie en París y en Varsovia, que se mantienen entre los principales centros de investigación médica en la actualidad. Durante la Primera Guerra Mundial creó los primeros centros radiológicos para uso militar.
Actriz austriaca, estrella de Hollywood, que sin formación técnica alguna, más allá de su curiosidad, hizo numerosos inventos. Destacamos entre ellos el sistema de guía por radio para uso militar que se utilizó en la Segunda Guerra Mundial (este sistema lo inventó junto al pianista y compositor George Antheil), utilizando las frecuencias y el espectro radiofónico para detectar cualquier posible ataque, codificado para evitar sustracciones de información. Este sistema fue base esencial para el desarrollo de otras tecnologías como el WIFI y el Bluetooth.
Única hija del poeta Lord Byron y de la matemática Anna Isabella Milbanke. Precursora de la mayoría de los lenguajes de programación de ordenadores y la primera informática del mundo. Fue la primera persona que describió un lenguaje de programación de carácter general en 1843. También describió conceptos como el “bucle” o la “subrutina”, y definió el uso de tarjetas perforadas para introducir los programas en la máquina analítica de Babbage.
Española, fue maestra, escritora e inventora de la enciclopedia mecánica, precursora del libro electrónico. Obsesionada con encontrar métodos más ágiles de aprendizaje, en 1949 patentó su primera versión de libro electromecánico, en el que introdujo el concepto de hipertexto: pulsando en diferentes lugares de una pantalla se descubrían distintos textos.
Inmigrante polaca afincada en Estados Unidos, inventora del Kevlar.
Española, inventó un sistema para "autentificar la identidad a través del reconocimiento por córnea", un método de seguridad biométrica que ya han adquirido todo tipo de empresas.
Norteamericana, viuda desde los 21 años, con 4 hijos, que a partir de las notas de su marido mejoró y diseñó un sistema inalámbrico de señales marítimas en base a fogonazos de distintos colores. Martha patentó y vendió su invento a muchas empresas; no fue tan famoso como Morse, aunque fue la primera.
Norteamericana; inventó el limpiaparabrisas de los coches en 1903.
Norteamericana, que inventó el lavavajillas, el cual patentó y ganó el premio a la mejor construcción mecánica, duradera y adaptada al ritmo de trabajo en la Exposición universal de Chicago en 1893.
Norteamericana, registró la primera patente de una afroamericana en 1919; un sistema de calefacción alimentado con gas natural, con termostato incluido. El concepto de su diseño fue revolucionario y sigue usándose en la actualidad.
Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.
En DHSEED somos conscientes de que orientar una compañía hacia la digitalización y el Big Data supone un proceso complejo de realizar. Por ello, acompañamos a la empresa en ese proceso, ya que ofrecemos consultoría orientada a la transformación digital; somos headhunters especialistas en la evaluación, búsqueda y selección de perfiles de IT, Big Data y digital.