Historia del Big Data 1: Hasta los años 80

historia del big data

Últimamente no paramos de oír hablar sobre Big Data en todas partes pero¿cuál es el origen del término? En datahack somos curiosos y no hemos podido evitar investigarlo.

Qué es el Big Data

El Big Data ya lo dejé definido cuando hablamos de sus cinco v’s, pero voy a simplificar bastante para ahondar para este artículo, que al final se centra más en la historia que en la definición en sí. Así pues, simplemente diremos que se trata de procesar y analizar en un tiempo razonable una inmensa cantidad de datos, tanto estructurados como no estructurados, para optimizar la toma de decisiones.

El origen del origen

El primer gran problema con los datos masivos se dio con el Censo de los Estados Unidos del año 1880. Tardaron ocho años en tabularlo y calcularon que el de 1890 hubiera necesitado más de 10 años, así que ¡tuvieron que buscar avances en la metodología!

En ese contexto, Hollerith inventó su famosa máquina tabuladora, que permitió realizar el trabajo aproximadamente en un año. No obstante, los datos generados siguieron en aumento y hasta la máquina tabuladora se veía en problemas para procesarlo todo. Esto se conoce como  la «explosión de la información», ¡y todavía estamos en los años 40 del siglo pasado!

Antes de los 60

Ante este panorama, Claude Shannon(1948) publicó la Teoría matemática de la comunicación, determinando los requisitos de datos mínimos para transmitir la información a través de canales afectados por ruido. Gracias a ese trabajo, se redujo el volumen de datos y se creó gran parte de la infraestructura actual.

Pocos años después, Fritz-Rudolf Güntsch (1956) desarrolló el concepto de memoria virtual, que trata el almacenamiento finito e infinito. De esta forma, se podían procesar los datos sin las limitaciones de memoria de hardware que provocaban la partición del problema.

Hans Peter Luhn, en el año 1958, ya comenzó a hablar de Business Intelligence, cuya definición, comparada con la del Big Data, podéis leer en este artículo.

Los años 60

En la década de los 60 surge la Ley Bibliotecaria de Aumento Exponencial (Price,1961), que indicaba que el aumento de datos se multiplicaba por dos cada 15 años y por 10 cada 50. Además, la mayoría de organizaciones empezaron a implementar sistemas de computación centralizados para automatizar los sistemas de inventario.

Otro hito lo tenemos en William C. Dersch. Creó la máquina Shoebox (1962) de reconocimiento de voz, capaz de entender 16 palabras y diez dígitos en inglés hablado. Por supuesto, no había suficiente potencia de procesamiento y los costes eran demasiado altos para que fuera realmente útil, pero fue un primer paso bastante importante para esta tecnología.

Los años 70

En 1970, Edgar F. Codd, habló por primera vez de las Bases de Datos Relacionales. Explicó una forma de acceder a la información almacenada en bases de datos de gran tamaño sin saber cómo estaba estructurada la información o dónde localizarla. Casi todas las transacciones de datos actuales se basan en ellas.

Poco después, en 1975, se realizó el Censo del Flujo de la Información de Japón, para controlar el volumen de información que circulaba por el país. Se percataron de que el suministro de información superaba al volumen de información consumida, y que la tendencia era el aumento de la demanda de comunicación bidireccional y personalizada.

En esta época, comenzaron a popularizarse los PC en las empresas y surgieron los sistemas de Planificación de necesidades de material (MRP) para ayudar a las empresas de fabricación a organizar y planificar su información.

A partir de 1970…

… la cosa se pone interesante y hay cada vez más avances. En el siguiente artículo hablaremos de ellos.


 Déborah Fernández, responsable de marketing y comunicación de datahack

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *