Hadoop para Dummies

Hadoop

Hadoop es actualmente el marco de desarrollo para implantar el Big Data. Está formado por un conjunto de capacidades reales, automáticas y escalables que permiten gestionar el flujo de datos, transformando los datos en bruto (Raw Data) en valores (Insight). Su creador fue Doug Cutting, quien lo donó a Apache Software Foundation (organización sin ánimo


Try It 2016: Big Data desde el origen a Hadoop

Try It 2016

Durante la pasada semana se celebró en la Escuela Técnica Superior de Ingeniería (ETSI) Informática de la Universidad Politécnica de Madrid el evento Try It 2016, donde las empresas más punteras y otras organizaciones presentaron a los estudiantes las tecnologías más novedosas, con especial atención al Big Data. Allí estuvo Datahack el pasado jueves 17


LAS DIEZ HERRAMIENTAS BIG DATA DEL CIENTÍFICO DE DATOS

Herramientas Big Data

Una de las labores principales del científico de datos Big Data es la conversión de datos en conocimiento útil para la empresa. Para realizar este interesante trabajo necesitan utilizar herramientas Big Data específicas, tanto de pago como de Open Source. De hecho, según la decimosexta encuesta de KDNuggets, el 64 por ciento de los científicos


d

datahack

91 091 28 42
Iniciar sesión