Big Data Spain 2017, sorteamos 500€

datahack participamos en Big Data Spain 2017 como patrocinadores oficiales. Contamos con un stand en el que ofrecíamos, entre otras cosas, 500€ a todos los que se acercasen. "Aliméntanos con tus datos, nosotros te alimentaremos con 500€", esa fue nuestro lema. A todos aquellos que se pasaban les ofrecíamos obleas de 500€ para que se las comieran. Además de poder participar en un sorteo de 500€ en formación si rellenaban un sencillo formulario.

Big Data Spain es el mayor evento de Big Data que se celebra en España. Esta edición, con 70 ponentes y más de 13.000 asistentes que acudieron de diferentes partes del mundo, por lo que fue íntegramente en inglés. Dos días repletos de charlas y actividades relacionadas con Big Data, en Kinépolis, Madrid.

stand datahack en Big Data Spain 2017

Rubén Martínez, uno de los speakers en Big  Data Spain 2017

Entre los ponentes, se encontraba Rubén Martínez, de datahack labs. En su charla: "Attacking Machine Learning used in AntiVirus with Reinforcement" explicaba cómo hacer malware indetectable utilizando Reinforcement Learning. Una breve, pero muy completa explicación que podéis disfrutar del resumen.

Rubén Martínez, speaker en Big Data Spain 2017

Demos de Deep Learning en el stand de datahack

En el stand de datahack, además de ofrecer los 500€ y merchandising oficial. Realizamos demos de Deep Learning con nuestro robot Yaco. Que consistían en tracking de objetos y de detección de género y emociones, como ya se hizo en innodata 2017. Muchos fueron los curiosos que se acercaron al stand para ver las demos en funcionamiento. Como Holden Larau que probó la demo acompañada por su mascota Boo.

Tracking de objetos en el stand de datahack labs

En definitiva, Big Data Spain 2017 fue una grata experiencia de la que salimos muy satisfechos. Ya estamos en marcha para empezar a preparar nuestra participación en Big Data Spain 2018. Como escuela de formación en Big Data y Analytics, y desarrollando proyectos de consultoría y robótica. ¡El año que viene, mucho más y mejor!

Mario nos mostró la lista de las principales compañías del ámbito financiero en España que están abordando proyectos BigData.

Las principales áreas en las que se están llevando a cabo estos proyectos son:

Ámbito Regulatorio: las entidades tienen que realizar un análisis de los potenciales clientes antes de que empiecen a trabajar con ellos, para evitar que provengan del ámbito de la delincuencia, el blanqueo de capitales, etc. Hasta ahora, algunas utilizaban técnicas muy rudimentarias y poco fiables, como pegar en la ficha del cliente el pantallazo que le devuelve Google al poner su nombre. Tal vez tengamos a un cliente como público objetivo óptimo de una campaña, pero no estemos validando cuál es su nivel de riesgo.

Proyectos BigData

Data&Beers - Proyectos BigData reales en españa - Mario Renau

IFRS9, una normativa, como continuación de Basilea II, que pretende establecer unas pautas de control para evitar la posible caída de determinados bancos, que pueden suponer el colapso de un país o incluso de un continente entero.

Plataforma estratégica de contabilidad, donde cargan y almacenan todos los movimientos contables para poder realizar análisis adicionales a los propios de contabilidad, detectar desviaciones, comportamientos erróneos, etc.

Visión 720º de un cliente. Hay un 10% de clientes que se van y no sabemos por qué. Quizá no estemos cruzando bien toda la información de las distintas áreas y no nos demos cuenta de que podemos estar dando un mal servicio al cliente, ni nos estemos fijando en el impacto que este cliente tiene sobre su comunidad, familia, empresa o seguidores. Una visión 720º del cliente exige tener la visión 360º dentro de nuestra entidad y de otros 360º fuera de ella: 720º.

Proyectos BigData

Data&Beers - Proyectos BigData con Mario Renau

Por lo general son proyectos BigData con un impacto estratégico en las entidades, por lo que requieren la participación de un Program Manager. No utilizan las últimas versiones, dado que son proyectos con un cierto recorrido y las entidades necesitan certificar el software que utilizan. El ir certificando las nuevas versiones que salen es un proceso largo.

Los resultados son fabulosos, como demuestra uno de los casos concretos que Mario Renau expuso, donde un proceso PL/SQL, cuyo código llegaba desde Madrid a Vigo, pasó de tardar en ejecutarse 23 horas a hacerlo en 23 minutos, a lo que hay que sumar los notables ahorros en software e infraestructura, lo que hace que los proyectos se financien solos.

En general, hay una tendencia a realizar el almacenamiento en Data Lakes multicapa o SandBoxes, donde se almacenan los datos en crudo. Luego hay distintas capas de negocio: analítica, datos agregados y procesados y así sucesivamente. Se incluye la lógica de negocio en todas las capas. De momento, la mayoría de proyectos BigData, va en esa línea.

Si quieres asistir al próximo Data&Beers, consulta nuestros eventos datahack

chevron-down