Barcelona se volcó por el evento y cientos de personas quisieron acompañarnos esa tarde. Con una cola digna de un gran espectáculo de rock y un auditorio lleno, nadie puede decir que el Big Data & Analytics no es un tema candente.
En datahack, que estamos en la punta de la ola, lo sabemos mejor que nadie. Y Alejandro Arranz nos lo transmitió muy bien durante su charla, en la que nos habló de las últimas tendencias, que implican a las Neurociencias a la hora de sacar el máximo partido a la tecnología deep learning…
Francisco Rodríguez Drumond comentó el problema de los modelos de machine learning de aprendizaje no supervisado. Este es que requieren muchos datos etiquetados, que normalmente no existen. Por eso, hay que invertir tiempo y recursos en elaborar los datasets. Para atajar ese problema, existe la tendencia a implementar modelos de aprendizaje semisupervisados.
Javier Moralo también nos habló de las dificultades que tuvimos con el modelo de Speech to text de DIA4RA. Todos los datasets estaban en inglés, así como de la forma en que elaboramos unos propios.
Gastón Lucero nos habló de las ventajas de Apache Ignite, entre ellas:
Lo importante no es solo lo que decimos, sino cómo lo decimos. Es decir, la cuestión no es que nos escuchen, sino que entiendan lo que sentimos al decir lo que decimos. El reto es detectar las emociones del usuario para descubrir cuál es el mejor momento para venderle un producto, servicio o idea.
Big Data, inteligencia artificial, machine learning y deep learning implican un tratamiento de datos eficaz en diferentes procesos. Dichos procesos requieren del uso avanzado de un stack tecnológico inmenso. Para estos cambios se necesitan profesionales de Big Data & Analytics y, a día de hoy, hay una carencia alarmante de ellos. No te lo pienses más y fórmate en esta profesión de futuro con el máster experto Big Data Analytics de datahack.
Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.
Te presentamos todas las claves de Innodata Barcelona en forma de tweet; aquí tienes los mejores momentos, contenidos y ponencias para que sepas quién es quién y conozcas los contenidos de los que pudieron disfrutar los asistentes. ¡Aprovechamos para invitarte a que nos sigas en twitter y completes la información!
El auditori Imagina Mediapro se llenó de entusiastas de los datos el pasado día 12 de junio
Asistiendo a #InnodataBCN con @datahack_ ... wow está lleno pic.twitter.com/LGTGB2S0RV
— David Reche Martinez (@drechema) 12 de junio de 2019
Francisco Rodríguez Drumond nos habló sobre aprendizaje supervisado vs aprendizaje no supervisado en Machine Learning, y de Aprendizaje semi supervisado para aprovechar datos no etiquetados
"Se generan grandes cantidades de datos, pero la mayoría sin etiquetar, que es lo más caro", Francisco Rodríguez Drumond en #InnodataBCN. pic.twitter.com/BJcvJ8wPrR
— datahack (@datahack_) 12 de junio de 2019
Gastón nos comentó las ventajas de Apache ignite.
At @datahack_ #InnodataBCN de Gastón Lucero @Trovit – In memory data grid - Persistence Layer and WAL pic.twitter.com/u2Ahq1LSNP
— Adriana Freitas (@adrianafreitas) 12 de junio de 2019
Alejandro Arranz, nuestro Data engineer, habló de cómo para desarrollar sistemas de detección de emociones. Primero hay que investigar cómo se generan desde el punto de vista de la Neurociencia. Para ello, usamos la teoría de Lisa Feldman “The constructed emotion”, que nos explicó durante la charla, clave para identificar las emociones reales y no solo la superficie.
#InnodataBCN @datahack_ @EldarSilver @aarranzlopez diferencia entre percepción de la emoción y la emoción real pic.twitter.com/7tZBbhzJLf
— Lourdes Hernandez (@lhvozmediano) 12 de junio de 2019
Javier comentó el desarrollo del proyecto DIA4RA, donde se están implementado, para ayudar a personas con alzheimer, modelos de deep leaning hechos con tensorflow en un robot pepper. Para llevarlo a cabo, decidimos crear un modelo de speech to text propio, tanto para desarrollar nuestra experiencia en deep learning, como para tener un servicio cognitivo de base. Para desarrollar el modelo, creamos un dataset propio, haciendo uso audiolibros y ebooks, y herramientas como audacity, nltk y aeneas
Redes neuronales con memoria. #InnodataBCN con @JJavierMoralo pic.twitter.com/a3cRNDxDnx
— Paloma Romero (@palomaromero28) 12 de junio de 2019
Lourdes Hernández Vozmediano, nuestra CEO, comenzó entonces la mesa redonda con Eduard Contijoch (Head of IoT/Industry 4.0 Business Development en T-Systems Iberia), Francisco Martínez (Manager BA en Minsait), Luis Echavarri Lasa (CDO en Grupo Sabadell y CIO Data y Sistemas Corporativos en Banco Sabadell) y Ferran García Paga (Principal Solutions Architect en Qlik). Hablaron de retos del Big Data como encontrar perfiles adecuados, que la calidad de los datos sea insuficiente, del propio desconocimiento de Big Data & Analytics por parte de empresas o público, de cuestiones legales en torno a los datos. También comentaron proyectos como detección de fraude en función de la relación entre personas o el análisis de emociones en los datos que nos dejan los clientes.
Tratando el Internet de las emociones en #InnodataBCN pic.twitter.com/kHIvPGSetj
— datahack (@datahack_) 12 de junio de 2019