Segunda parte.

Os recordamos que el mes pasado Jorge López Lázaro, uno de nuestros profesores del master big data, concedió una ponencia donde nos explicó toda la información que aportan los medios de comunicación sobre la COVID-19. Aporta datos claros, directos y reales, sin sesgos. Muchos de vosotros no pudisteis asistir y estáis muy interesados en el tema, por lo que subiremos las partes a la web.

Esta es la segunda parte de los 5 vídeos en los que hemos dividido la ponencia. Publicaremos los vídeos cada martes en nuestra web, ya que muchos de vosotros nos pedisteis la conferencia completa. En este segundo vídeo nos explica cómo evolucionó COVID-19 en Wuhan y qué es Diamond Princess.

Además estad atentos porque una vez todos los vídeos estén subidos y hayáis podido ver la ponencia completa, entrevistaremos a Jorge para conocer la evolución y los cambios en la información y datos que aportan los medios y gobiernos de los países.



Quedan 3 partes más. Nosotros estamos abiertos a más datos e informaciones que nos queráis aportar. Si tienes alguna pregunta o comentario acerca de este tema, contacta con nosotros y participa en el futuro del Big Data.


Primera parte.

Hace ya un mes que uno de nuestros profesores y gran divulgador, Jorge López Lázaro, dio una fantástica ponencia en datahack sobre la información que recibimos de los medios de comunicación respecto a la pandemia, y los datos reales y su interpretación sin sesgos.

Muchos de vosotros nos pedisteis poder acceder al vídeo y, como vuestros deseos son órdenes, durante las próximas 5 semanas os iremos subiendo la ponencia dividida en 5 vídeos que iremos colgando cada martes en nuestra web.

Cuando hayamos colgado todos los vídeos, entrevistaremos de nuevo a Jorge para que nos cuente cómo ha evolucionado en el tiempo transcurrido la comunicación respecto a los datos que siguen dando medios y gobiernos a nivel mundial, y la realidad de los mismos.

Y si os quedáis con ganas de recopilar vosotros mismos los datos y hacer vuestras propias interpretaciones de toda la información que recibimos a diario tanto personal como laboralmente, contacta con nosotros y comienza a forjar ya tu futuro en el mundo del Big Data.

El procesamiento de volúmenes ingentes de datos requiere de sistemas altamente eficientes, capaces de incorporar constantemente nuevas entradas sin parar de generar información útil para la toma de decisiones. Para satisfacer esta necesidad se diseñan las arquitecturas Big Data, modelos que han ido sofisticándose con el paso de los años con el fin de adaptarse a las exigencias de las organizaciones que los utilizan.

Hoy en datahack analizaremos las características y las diferencias que existen entre dos de las arquitecturas Big Data más extendidas: Lambda y la que muchos consideran como su evolución, Kappa.

¿Qué es la arquitectura Big Data?

Una arquitectura Big Data se define como un sistema de tratamiento de datos creado para tomar inputs de diferentes fuentes y con distintos formatos, analizarlos y convertirlos en conclusiones relevantes para el destinatario, de manera que le ayuden a predecir escenarios o determinar qué acción llevar a cabo en una situación dada.

Las arquitecturas Big Data se basan tanto en el almacenamiento como en el procesamiento distribuido de los datos, lo que las hace más seguras que los modelos centralizados en caso de fallos, ya que facilitan la localización y el aislamiento del nodo problemático con celeridad sin comprometer el funcionamiento del resto. Esto reduce, asimismo, la latencia en las conexiones, acortando los tiempos de respuesta en las solicitudes de información.

Otra de las grandes ventajas de las arquitecturas Big Data con respecto a las metodologías de análisis tradicionales es su escalabilidad: se conciben como sistemas adaptativos, preparados para asumir la entrada continua de nuevos conjuntos de datos y para ser extrapolados a ámbitos muy diversos.

Sala de servidores para el almacenamiento Big Data

Arquitectura Lambda: ¿en qué consiste?

Los principios de Lambda como arquitectura Big Data fueron establecidos por Nathan Marz en 2011 en su artículo How to beat the CAP theorem. Lambda se sustenta en una estructura de tres capas:

En la arquitectura Lambda, los datos entran por duplicado, en la capa batch y en la capa streaming. A partir de aquí, se someten a dos tipos de tratamiento:

  1. Procesamiento batch. Aborda los datos por lotes, conjuntos con un inicio y un final acotados. Los resultados de la consulta se muestran en vistas indexadas en la capa de servidor. Ofrece outputs muy fiables, dado que toma en cuenta segmentos completos de registros; pero, a cambio, precisa de un tiempo relativamente largo (minutos u horas) para completar la operación, por lo que no se considera útil en situaciones en las que la toma de decisiones deba ser casi instantánea. Para paliar esta desventaja, lo habitual es diseñar preconsultas en la capa batch que la capa serving indexará como vistas, lo que acelera la respuesta cuando se efectúa la solicitud.
  2. Procesamiento streaming. Proporciona información en tiempo real con vistas que se muestran directamente en la propia capa de velocidad y que se actualizan de forma constante apoyándose en los datos más recientes.

Arquitectura Kappa: ¿alternativa a Lambda?

La arquitectura Kappa nació en 2014 de la mano de Jay Kreps y su reflexión Questioning the Lambda Architecture. En ella, Kreps criticaba el consumo innecesario de recursos que supone mantener y tratar los mismos datos, con el objetivo de obtener resultados similares, en dos sistemas distintos (la capa batch y la capa streaming).

Kreps opina que el procesamiento por lotes también se puede llevar a cabo en la capa streaming. Y, como consecuencia, en su idea de Kappa aboga por suprimir la capa de segmentos, quedándose solo con la de streaming y la de consulta, y pasando a considerar todo como un flujo de datos ininterrumpido, sin final definido, en el que aplicar las operaciones.

Estructura de nodos para el procesamiento Big Data

Arquitecturas Big Data Lambda y Kappa: ¿cuándo utilizar cada una?

A pesar de que Kappa supone una simplificación de Lambda, no por ello constituye una solución para todas las circunstancias. Valorar cuándo y dónde implementar una u otra arquitectura Big Data depende de factores como el tipo de procesamientos simultáneos de los datos que se pretenden realizar, la importancia de la latencia para los actores implicados o si vamos a utilizar la información recabada para el desarrollo de modelos de machine learning. Una decisión delicada que corresponde tomar a los especialistas en Big Data.

¿Quieres aprender más sobre arquitectura Big Data y sobre Lambda y Kappa? Infórmate sobre el Máster Experto en Arquitectura Big Data de datahack, una formación puntera, intensiva y online con la que darás un gran paso adelante en tu carrera profesional en tan solo 15 semanas. ¿Te interesa? Contacta con nosotros y resolveremos tus dudas. Con datahack, ¡te espera un gran futuro en el mundo del Big Data!

EL SPRINT

El Sprint es un período de tiempo predeterminado y, en lo posible, de duración constante a lo largo de un proyecto. Las duraciones más habituales son dos o cuatro semanas, pero depende mucho del contexto. Durante el mismo se desarrolla un ciclo completo del resto de eventos (reuniones), más el propio trabajo técnico. Lo que se persigue es entregar un incremento de producto a su finalización, que responda a un objetivo concreto fijado al inicio. Inmediatamente después, comienza el siguiente sprint, de manera que se establece una rutina de entregas periódicas listas para usar, sin que exista tiempo entre sprints. Se puede pensar el sprint como un miniproyecto. Mientras que de un sprint a otro los cambios son bienvenidos, dentro de un sprint se alcanzan unos compromisos  muy específicos, y solo se deberían permitir cambios o aclaraciones que no amenacen el objetivo del sprint. Si a lo largo del sprint lo que cambia es el compromiso, como puede ser una bajada en la calidad de los entregables, o funcionalidad imprevista al inicio del sprint, estaremos fallando en lo básico de Scrum. Que el sprint sea de un mes máximo facilita las estimaciones, a la vez que limita los riesgos negativos. Sí que se contemplan casos excepcionales de cancelación de un Sprint en curso, siendo el Product Owner quien tiene la última palabra al respecto. Esto será cuando considere que los objetivos iniciales del sprint ya no son alcanzables, o ya no tienen sentido. No necesariamente hablamos de fracaso, imaginemos simplemente que se decide pasar de una infraestructura propia a otra en la nube, y que no contar con la nueva lo antes posible significará mucho retrabajo posterior. Así pues, se detienen ciertos desarrollos para que se habilite la nueva. En este caso prima el pragmatismo, y no debería castigarse a nadie por una decisión así, ya que seguir con los desarrollos supondría una pérdida futura de valor.

AGILIDAD

La lección práctica es que dentro de un sprint no se pueden atender cambios importantes de prioridades o de alcance, y es el precio a pagar para cumplir con los compromisos. De esta manera, el equipo técnico puede centrar la mayor parte de su tiempo en las tareas de construcción del producto. Así, hasta cierto punto, se desentiende de otras tareas que no se piensan abordar en el sprint en curso. Las reuniones, aunque parecen muchas, son limitadas, tanto en tiempo como en intervinientes. Recordemos que se buscan equipos autónomos autoorganizados, y que no quieren ser interrumpidos con frecuencia por directivos, usuarios, etc. Que el Product Owner sea una única persona física (en vez de un grupo de usuarios) ayuda mucho a conseguirlo. Con todo ello lo que se pretende es que el equipo aumente la velocidad de desarrollo o implementación, hasta encontrar una velocidad de crucero. Siempre entendiendo que la velocidad hace referencia a producto construido y entregado listo para usar dentro de cada sprint, por lo que no vale entregar por entregar. Por ejemplo, una medida de velocidad basada en el número de líneas de código entregadas no es buena elección. Esto es así porque no se puede correlacionar directamente con el valor del producto, aunque un número inusualmente bajo (o alto) de líneas desarrolladas sí que puede activar una alerta de que en ese sprint ha pasado algo peculiar.

CONCLUSIONES

Observemos que los proyectos empiezan a parecerse más a operaciones continuas, sin que por ello se pierda el concepto de producto singular (no estamos fabricando hamburguesas sino productos únicos a medida). Hay quien afirma incluso que para una verdadera agilidad se requiere un sistema de integración continua, que automatiza pruebas y pasos entre entornos, precisamente para que el final del sprint no sea un cuello de botella, y también para que la definición de “hecho” (Done) sea más medible y corporativa. Debo decir que ni el Business Intelligence ni el Big Data son los proyectos más típicos para pensar en una integración continua muy automatizada, aunque solo sea por posibles problemas de calidad de datos. Otra adaptación habitual de los proyectos de Analytics, Data Science, Datawarehouse, etc., es considerar un sprint 0. Dicho sprint se sitúa al inicio del proyecto, y puede durar bastante más tiempo que los sprints normales, con el objetivo de preparar infraestructuras, instalaciones de software, estudiar la propia calidad del dato, entender requisitos no funcionales, etc. Es decir, un sprint donde no se entrega un incremento de producto (desde un punto de vista de usuario), y por esto no se puede medir en los mismos términos, ni tienen sentido todos los eventos. Algunos consideran esto como una especie de trampa, pero yo creo que establecer sprints especiales sin entrega de producto es algo bastante natural en los proyectos analíticos, lo mismo que puede haber sprints cancelados. Todo depende de los objetivos metodológicos que queramos cubrir, y en concreto de cómo queremos medir la velocidad de los equipos, así como el valor del producto. En siguientes entregas trataré sobre las reuniones y artefactos de scrum, intentando siempre ofrecer algún consejo práctico. Si os está gustando el tema permaneced atentos al Blog de datahack.

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

Una competencia es una característica subyacente en una persona, que está causalmente relacionada con una actuación de éxito en un puesto de trabajo

Boyatzis, 1982

Las competencias como pilar básico

Las competencias son un pilar básico para poder analizar y describir un puesto de trabajo.

¿Qué competencias son necesarias en un puesto de trabajo? Cada empleo tendrá unas necesidades diferentes a otras, pero es vital para la efectividad del trabajo que desempeñe que estas competencias se definan correctamente. De esta manera, el que aplique para el trabajo podrá ver qué competencias necesita desarrollar y cuáles ya ha desarrollado.

La necesidad de actualizarse

Actualmente, las nuevas generaciones son las mejores formadas de la historia. El auge en nuevas carreras y títulos, máster, cursos o especialización en algún campo del sector crean la necesidad de buscar algo que va más allá de la formación. El mercado está saturado de gente cualificada pero, ¿qué es lo que te hace diferente a los demás?, ¿qué es lo que te hace diferente de una persona con la misma formación que tú? Como si se tratara de competencia empresarial, deberemos diferenciarnos de los demás. Las competencias pueden ser el medio para conseguirlo.

Cada vez más se desarrollan diferentes competencias que pueden hacerte marcar la diferencia, ya que cada vez más se buscan puestos de trabajo con competencias específicas. Esos conocimientos, habilidades, cualidades, valores, motivaciones y aptitudes son propias de las personas enfocadas al buen desempeño profesional.

Las competencias según Maslow

Estas competencias se pueden aprender y desarrollar como explica Maslow:

Por esto, una vez que identifiques las competencias que quieres desarrollar ya estarás a un paso de conseguir obtener la competencia.

Las competencias en el sector del Big Data:

Dependiendo del sector en el que te encuentres necesitaras unas competencias u otras, las competencias clave en el sector del Big Data son:

  1. Flexibilidad: tener la capacidad de adaptarse a los nuevos cambios y obstáculos que puedan surgir a la hora de desempeñar tu trabajo.
  2. Capacidad de aprendizaje: el mundo del Big Data cambia constantemente surgen nuevos lenguajes y herramientas que nos facilitan o mejoran el tratamiento de los datos. Por ello hay que estar constantemente formándose, para evitar quedarse atrás y responder de la mejor forma las necesidades del mercado.
  3. Capacidad relacional o comunicativa: por muy técnico que sea tu perfil, necesitas tener la capacidad de poder transmitir y comunicarte con tus compañeros.

Con estas competencias desarrollar tu talento, porque cada vez más el departamento de Recursos Humanos utiliza el Big Data para analizar los perfiles y definir las competencias.

Conclusión

En el mundo profesional actual, nos encontramos con nuevos puestos de trabajo y nuevas formas de definir los puestos de trabajo, donde cada vez más se pide la especialización del empleado. Al fin y al cabo, el desarrollo de nuevas competencias que conformen a profesionales más especializados. Las competencias básicas de un perfil en el sector del Big Data son la capacidad de adaptarse a los nuevos cambios, la capacidad de aprendizaje y la capacidad comunicativa.

Prepárate para desarrollar tus competencias en el sector del Big Data y, si lo haces con el mejor master de Big Data & Analytics, pues mejor que mejor.


Alejandra Sánchez, asistente en marketing y comunicación de datahack

Uno de los grandes retos para los formadores en tecnologías Big Data es dar a conocer que el Big Data no es una única cosa. El Big Data es un concepto que engloba a muchos otros. Está formado por un ecosistema de tecnologías que, combinadas entre sí, nos aportan la potencia necesaria para extraer valor al dato y hacer que nuestra organización sea Data Driven.

A lo largo de varios artículos, vamos a hacer un recorrido por estas tecnologías para diferenciarlas y así hacernos una idea de cuál es la utilidad de cada una en nuestro negocio.

Vamos a comenzar por lo más básico. En Big Data tenemos dos áreas de conocimiento que, aunque están entrelazadas debemos diferenciar. La primera es Data Science o Ciencia de Datos y la segunda es Data Architecture o Arquitectura del Dato.

Data Science

Atendiendo al primer bloque, debemos definir aquellas tecnologías y técnicas que engloba el concepto de Data Science. Además, para traerlo a nuestro idioma, lo definiremos como la ciencia que estudia los datos. 

Entre los conceptos asociados a Data Science está:

A lo largo de los siguientes artículos, iremos abordando algunos de ellos.

Es importante resaltar que, cuando buscamos posibles candidatos para una posición en Data Science, a veces se definen a ellos mismos con este término cuando en realidad hay muchos perfiles que trabajan en Data Science y sin embargo dominan distintas técnicas.

Data Architecture

El segundo bloque comprende todo lo relacionado con la arquitectura del dato. Si bien es cierto que podemos aplicar técnicas de Data Science sobre sistemas sencillos, cuando hablamos de Big Data es imprescindible la planificación y un buen diseño de nuestras arquitecturas por perfiles especializados como el arquitecto de datos

El hecho de que nuestra organización llegue a ser data driven depende en gran medida de la inversión de tiempo y dinero que se haga con el fin de implementar una arquitectura Big Data estable y proporcional al tamaño del dato. Previamente, es necesario conocer el ecosistema de tecnologías de arquitectura Big Data y hacer un análisis de las necesidades y del impacto que tendrá el despliegue del nuevo sistema en la empresa. 

Veamos el nombre de algunas tecnologías en este ámbito. Por un lado, tenemos las bases de datos no relacionales NoSQL. Otro sistema de almacenamiento de la información es Hadoop y por último tenemos Spark. ¿Te suenan los nombres? Además, dentro del ecosistema Hadoop tenemos herramientas como Hive, Impala, Oozie, Zookeeper, Sqoop, Kafka, Flume, Hbase o Pig entre otros. 

Tanto si te suenan algunos nombres como si no, estate atento a los próximos episodios de la saga Big Data para no perder detalle de ninguno de ellos. A lo largo de los próximos posts iremos detallando algunas de estas tecnologías para que puedas hablar como un verdadero datahacker.

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

FASES DE LA ANALÍTICA BIG DATA. Queremos implementar la analítica Big Data en nuestra empresa pero ¿cómo hacerlo? En principio, sistematizar la analítica de datos puede parecer una tarea ingente, pero por suerte cualquier método analítico sigue una serie de pasos que detallamos a continuación:

OBTENCIÓN DE DATOS

FASES DE LA ANALÍTICA BIG DATA. Lo primero es asegurarnos de que obtenemos datos de calidad de los que pueda salir un análisis veraz, útil y fiable. Es importante, en esta fase, que la empresa identifique sus objetivos para que sepa qué datos necesita y cómo conseguirlos.

LIMPIEZA Y FILTRADO DE DATOS

FASES DE LA ANALÍTICA BIG DATA. Una vez tenemos los datos “en bruto”, hacemos una primera manipulación para hacerlos manejables. En esta fase eliminamos duplicados o errores y los trasladamos al formato más adecuado para su procesamiento.

PROCESAMIENTO DE DATOS

FASES DE LA ANALÍTICA BIG DATA. Aquí lo que hacemos es integrar los datos, manipulándolos masivamente para estructurarlos y diferenciarlos (a veces, en función de lo que necesitemos, extraeremos subconjuntos relevantes para manipularlos y analizarlos sin afectar al resto), de forma que podamos extraer información valiosa de ellos en fases posteriores.

MODELADO Y ALGORITMOS

FASES DE LA ANALÍTICA BIG DATA. En este paso construiremos un modelo analítico y elegiremos las metodologías a utilizar según el resultado que busquemos (datos estadísticos, regresiones, predicciones…). Una vez decidido esto, procederemos a crear los algoritmos necesarios para poner en marcha el modelo de machine learning.

TESTEO Y ENTRENAMIENTO DEL MODELO

FASES DE LA ANALÍTICA BIG DATA. Creados los algoritmos, ejecutamos el modelo contra un conjunto de datos parciales para probar su precisión. Entrenaremos el modelo hasta llegar al nivel de precisión deseado, momento en el cual finalizamos esta fase.

EJECUCIÓN DEL MODELO

Es el momento de ejecutar el conjunto de datos completo, bien sea una vez, si se trata de una necesidad de información puntual y específica, o de forma continua, mediante una automatización a medida que se actualizan los datos, si es una necesidad recurrente.

VISUALIZACIÓN DE LOS RESULTADOS

Los resultados y, en general, toda la información útil extraída, ha de llegar al usuario final de forma que pueda comprenderla: mediante informes, gráficos u otro tipo de soporte de visualización. Para ello, usaremos software de análisis y visualización de datos Big Data como Power BI.

CONCLUSIÓN

Seguir los pasos para conseguir implementar una analítica Big Data es relativamente sencillo. Lo que no es tan sencillo es tener los conocimientos necesarios para llevar a cabo la realización de los algoritmos necesarios para los modelos, o para mostrar los resultados en potentes visualizaciones.

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

El análisis de datos nos proporciona grandes ventajas competitivas, desde el apoyo en la toma de decisiones o la segmentación de partners y clientes hasta mejoras en la gestión interna. Pero, ¿cómo extraer todos estos beneficios de los datos?

No basta con recopilar y almacenar de forma masiva tantos datos como sea posible y enriquecer tu base de datos sin ton ni son. Para sacar valor de dichos datos, tenemos que analizarlos y, para ello, debemos tener claros los objetivos de dicho análisis y qué tipo de información es valiosa para nosotros.

EL BIG DATA EN LA ANALÍTICA DE DATOS

TIPOS DE ANALÍTICA BIG DATA. La analítica tradicional está limitada a un pequeño número de datos estructurados, por lo que los resultados de los análisis pueden resultar un poco pobres. Con Big Data, podemos analizar grandes cantidades de datos, aunque no estén estructurados, y construir modelos a partir de patrones que no siempre se aprecian a simple vista.

ANALÍTICA DESCRIPTIVA

TIPOS DE ANALÍTICA BIG DATA. Responde a la pregunta “¿qué sucedió?” analizando el pasado y el desempeño de las actividades de nuestra empresa, para lo que utiliza datos históricos.

Básicamente, simplifica y resume los datos para darnos una visión y contexto con los que entenderlos. Para ello, usa herramientas como inteligencia de negocio, análisis estadísticominería de datos, aunque es relativamente sencilla de hacer, por lo que es el tipo de analítica más extendido.

ANALÍTICA DIAGNÓSTICA

TIPOS DE ANALÍTICA BIG DATA. Responde a la pregunta “¿por qué sucedió?”. Al igual que la descriptiva, tiene en cuenta el desempeño pasado del comercio pero suma al análisis datos del contexto. Gracias a eso, da un paso más allá de la anterior y permite descubrir tendencias o relaciones causales.

ANALÍTICA PREDICTIVA

TIPOS DE ANALÍTICA BIG DATA. Responde a la pregunta “¿qué podría pasar?” contrastando datos recientes e históricos con técnicas como la minería de datos, modelos de machine learning y estadísticas, para ofrecer escenarios y comportamientos de clientes futuros posibles basados en probabilidades.

ANALÍTICA PRESCRIPTIVA

Esta va mucho más allá y nos responde a la pregunta “¿qué deberíamos hacer?”. No sólo permite vislumbrar escenarios futuros probables, también sugiere decisiones a tomar frente a estos escenarios y el impacto de cada posible curso de acción que se tome.

Para llevarla a cabo se utilizan herramientas de machine learning como la optimización, Análisis de Decisión Multicriterio o la simulación.

CONCLUSIÓN

Por supuesto, los cuatro tipos de analítica Big Data son fácilmente combinables entre sí, no son excluyentes. No obstante, el uso de unas u otras depende de la cantidad de datos disponible y de nuestras capacidades técnicas. Para conseguir dichas capacidades técnicas necesitamos un conocimiento avanzado de herramientas de Big Data que nos permitan elaborar modelos de machine learning capaces de llevar el análisis de nuestros datos al máximo nivel.

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

Te presentamos todas las claves del I Congreso de Big Data & Analytics de Sevilla en forma de tweet; aquí tienes los mejores momentos, contenidos y ponencias para que sepas quién es quién y conozcas los contenidos de los que pudieron disfrutar los asistentes. ¡Aprovechamos para invitarte a que nos sigas en twitter y completes la información!

Lleno total en el I Congreso de Big Data & Analytics:

El edificio de Fundación Cajasol, en el centro de Sevilla, se llenó de entusiastas de los datos el pasado día 7 de febrero.

Lleno absoluto en @datahack_ #bigdata #CBigdata #analytics #robotica #Sevilla #innovación #tecnología #IA pic.twitter.com/dwPdcLViRd

— Guiomar RGdP (@guiomargdp) 7 de febrero de 2019

Juan Manuel Cotelo, enfoque Big Data para el análisis de historias clínicas oncológicas:

Juan Manuel Cotelo, data scientist en Metadology, nos habló de los desafíos del uso del Big Data para el análisis de historias clínicas (los datos dispersos, la información no estructurada y la calidad del dato), del procedimiento para el análisis de historias clínicas con Big Data y de las tecnologías que utilizan para llevar a cabo dichos procedimientos.

Juan Manuel Cotelo de @Metadology . Tecnologías Big Data para el análisis de historias clínicas. ¡Hay que tener una gran formación para hacerlo! ¿Qué tal el máster de @datahack_?#CBigData pic.twitter.com/ZmqNjFShXc

— datahack (@datahack_) 7 de febrero de 2019


Javier Moralo, TensorFlow y reconocimiento de voz: Speech to Text.

Javier Moralo, Data and IA Creative en datahack, habló del desarrollo del proyecto DIA4RA, donde se están implementado modelos de deep leaning, hechos con tensorflow, en un robot pepper para ayudar a personas con alzheimer. Para llevarlo a cabo, se decidió crear un modelo de speech to text propio, tanto para seguir desarrollando nuestra experiencia en deep learning, como para tener un servicio cognitivo que sirva de base para nuestros proyectos. Para desarrollar el modelo, tuvimos que crearnos una dataset propio, haciendo uso audiolibros y ebooks, y herramientas como audacity, nltk y aeneas

Para entrenar nuestro modelo, usamos #tensor2tensor, una herramienta desarrollada por google, implementa la arquitetura “the Transformer” en #tensorflow. @JJavierMoralo, de @datahack_, en el #CBigData. https://t.co/A5yb4zSVou pic.twitter.com/Wh3K5HgF6Y

— datahack (@datahack_) 7 de febrero de 2019


Javier Tejedor: Machine Learning y Deep Learning aplicado a la detección de pérdidas no técnicas de energía eléctrica en Endesa Distribución.

Javier Tejedor nos habló en su charla de las Pérdidas No Técnicas de Electricidad, que en endesa detectan gracias al Machine Learning y el Deep learning con varios enfoques: Aprendizaje automático supervisado, Deep Learning con Red neuronal híbrida, Machine Learning GBDT...

#BigData Detectando fraude electrico en @Endesa
Javier Tejedor nos lo cuenta en el
1er Congreso Big Data en #Sevilla
Organizado x @datahack_ pic.twitter.com/hn3dzq5fiV

— Nacho Monasterio (@nachofmonas) 7 de febrero de 2019


Rubén Martínez, TensorFlow: reconocimiento de imágenes: Análisis de genero y emociones.

Rubén Martínez, nuestro Data engineer, nos habló de cómo para desarrollar un sistema de detección de emociones primero hay que investigar cómo se generan desde el punto de vista de la Neurociencia. Para ello, la Dra en Psicología Lisa Feldman propone la teoría "The constructed emotion", que nos explicó durante la charla, clave para identificar las emociones reales y no solo la superficie que captan las cámaras del robot.

Entrenamiento neuronal, arquitectura, #Dataset y otras keywords...#CBigData @datahack_ #datahack @EldarSilver En el capítulo II..#TensorFlow ?? crack!! pic.twitter.com/0QTb0VglMa

— Enrique Ruiz (@eruizmillan) 7 de febrero de 2019


Mesa redonda

Nuestra CEO, Lourdes Hernández, introdujo entonces la mesa redonda con Carmen Rodriguez Quirós, Carlos Luis Parra Calderón y Natalia Palomino González. En ella se trataron algunos temas como las oportunidades del Big Data para mejorar las vidas de los ciudadanos, el panorama del Big Data en Andalucía, la gran carencia de Científicos de Datos y de lo revolucionario de los cambios tecnológicos para los que se necesitan profesionales de Big Data...

#CBigData "El Big Data ha llegado para quedarse y muchas empresas que no lo aborden acabarán por desaparecer" pic.twitter.com/lkd4t4e31y

— datahack (@datahack_) 7 de febrero de 2019

MÁSTER EXPERTO EN BIG DATA & ANALYTICS

Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.

chevron-down