El pasado 8 de marzo datahack organizó una mesa redonda de EXPERTAS en el ámbito de los datos.

Macarena Estévez (Deloitte), Elena Gil (Telefónica) y Emilia Gómez (Universitat Pompeu Fabra), charlaron, moderadas por Lourdes Hernández (CEO de datahack) sobre las últimas tendencias del sector, avances y proyectos punteros que se están desarrollando en estos momentos, y que darán paso al futuro del Big Data revolucionando el sector tal y como lo conocemos.

¿Quieres conocer de primera mano estos proyectos? Si te perdiste la sesión "Data: Advance & Trends". Aquí tienes el vídeo:


????️ SPEAKERS:

⚪ Macarena Estévez - Analytics Partner at Deloitte.
⚪ Elena Gil Lizasoain - Global Director of Product and Business Operations at Telefonica IoT & Big Data.
⚪ Emilia Gómez - Assistant Professor, Centre for Advanced Studies, Music Technology Group at Universitat Pompeu Fabra
⚪ Lourdes Hernández Vozmediano - CEO at datahack.

La Agencia Tributaria y el Big Data reforzarán el control de personas físicas que aparentan ser no residentes en España. Esta medida se lleva a cabo tras la polémica surgida tras la partida de varios youtubers a Andorra. Toda la información pertenece a la nota de prensa "Directrices del Plan Anual de Control Tributario"


Agencia tributaria y el big data

Primero se controlará mediante el uso de herramientas de Big Data y herramientas de análisis masivos de datos. Es una novedad en el ámbito de los patrimonios relevantes "deslocalizados" y es un nuevo movimiento para la comprobación tributaria. Además, el proyecto figura en el Plan de Control Tributario 2021. Sus directrices generales se encuentran en el Boletín Oficial del Estado en un contexto de relevantes novedades normativas.

Además, la Administración tributaria gestionará dos nuevas figuras fiscales, el Impuesto sobre Determinados Servicios Digitales y el Impuesto sobre Transacciones Financieras. Otro punto importante es la previsible incorporación del paquete de comercio electrónico ('e-commerce package') con importantes novedades gestoras en el pago del IVA de las plataformas de comercio electrónico.

La Agencia intensificará el control del comercio electrónico, tanto desde la perspectiva de la tributación directa como de la indirecta. Su intención es asegurar la identificación fiscal de los obligados tributarios aunque no vivan en España y realicen el hecho imponible del IVA por sus ventas a consumidores localizados en el país.

¿Por qué es importante el Big Data?

Hoy en día continuan las labores de control de grandes fortunas por la Unidad Central de Coordinación del Control de Patrimonios Relevantes de la Oficina Nacional de Investigación del Fraude. Además, utilizan herramientas de big data sobre los contribuyentes que "deslocalizan" su residencia, fingiendo vivir en el extranjero cuando realmente residen en España.

Este sistema ha permitido obtener grandes cantidades de datos e indicios necesarios que permiten descubrir la residencia en España de estas figuras. Por lo que podrán intensificar el control de ciudadanos deslocalizados.

Fraude en la fase recaudatoria

Además de las prioridades de esta institución en ¡ el ámbito del control en fase recaudatoria, este año las labores de investigación que dan lugar a derivaciones de responsabilidad a terceros se verán reforzadas con un control especial de las titularidades 'de conveniencia' de los terminales punto de venta.

"Por otra parte, continuarán este año los trabajos de implementación del denominado 'NRC online', un nuevo sistema de registro y seguimiento de los ingresos gestionados a través de entidades colaboradoras que desembocará en un conocimiento de esta información de forma inmediata, facilitando las labores de seguimiento y control de las deudas." Directrices del Plan Anual de Control Tributario.

Si queréis saber más sobre las nuevas directrices, podéis entrar aquí. Contacta con nosotros para cualquier duda o sugerencia.

En el anterior post sobre el big data y el cambio climático, el profesor Antoni Munar se preguntó la razón de las nevadas cuando vivimos un calentamiento global. En este os traemos la relación más detallada que existe entre estos dos elementos.

Big data y cambio climático

Relación entre ambos términos

Primero, todo se puede deducir mediante datos. El cambio climático cada vez está más presente en la mentalidad de los empresarios. Además, algunas empresas dependen del clima para avanzar, por lo que necesitan la posibilidad de prever el cambio.

Las nuevas tecnologías, la innovación y el desarrollo del análisis de datos está siendo fundamental para medir este impacto. Pero no solo esto, sino también podemos descubrir las causas y los efectos de este problema. Gracias a esto, las empresas pueden crear estrategias para tratar de evitar o disminuir el riesgo, o incluso tomar ventaja ante sus competidores.

En un primer momento, los negocios comenzaron a analizar a corto plazo, evitando así males mayores. Tras el avance de las nuevas tecnologías, podemos analizar los riesgos a largo plazo a pesar de los cambios que pueda haber. Este big data tiene las herramientas ideales para analizar toda la información de forma rápida y veraz, así como predecir los riesgos y reforzar la seguridad de la empresa.

¿Puede el uso del big data evitar el cambio climático?

Ya está en ello. Hoy en día existen numerosos estudios que utilizan el big data para analizar la gran cantidad de información que necesitan. Un ejemplo es este estudio científico que asegura que hay suficiente espacio en nuestro planeta para repoblar millones árboles, lo que nos ayudaría a evitar el efecto invernadero.

Otro ejemplo es el estudio del desarrollo sostenible y macrodatos que nos permite gestionar de el crecimiento de las ciudades y su polución. Todo se puede medir y el Big Data es una gran estrategia para crear soluciones.


Si queréis saber más acerca de este tema, no dudéis en contactarnos. Enviadnos dudas y sugerencias.

El mercado de las herramientas de Business Intelligence crecerá a un ritmo anual del 7,6% entre 2020 y 2025, según pone de manifiesto un estudio de MarketsandMarkets. La Inteligencia de Negocio y el Big Data están ofreciendo a las organizaciones justo lo que más necesitan: confianza en medio de la incertidumbre por la pandemia de la COVID-19 y por la imparable transformación digital en que se halla inmerso el sector empresarial.

Los expertos en Business Intelligence y Big Data recurren a soluciones tecnológicas para  automatizar las tareas de recolección y análisis pero, sobre todo, para trabajar en la visualización de datos. Numerosos departamentos (como marketing, RRHH, compras, logística, etc.), así como los mandos directivos, hacen uso de dashboards creados con estas plataformas para consultar información previamente tratada por los analistas y data scientists.

Ante este interés por el Business Intelligence, el número de herramientas a nuestra disposición no hace sino aumentar. ¿Con cuál -o cuáles- quedarnos? En datahack hemos llevado a cabo nuestra propia selección con las 6 soluciones de Inteligencia de Negocio más útiles para este 2021. ¿Las has probado ya?

1.     Power BI

Power BI es una suite de Microsoft para la gestión de datos y la realización de análisis descriptivos y predictivos. Power BI vuelca la información en cuadros de mando interactivos que muestran la evolución de las variables del negocio, favoreciendo una dinámica self-service de acceso a los datos por parte de las distintas áreas de la organización.

Entender el funcionamiento de esta herramienta de Business Intelligence es prácticamente una obligación para los expertos en Big Data. ¿Qué puedes hacer para acercarte a ella?

2.     Tableau

Tableau mantiene su posición de preeminencia entre las soluciones de Business Intelligence más utilizadas. Probablemente, porque los niveles de dificultad en su manejo se adaptan al conocimiento de sus usuarios: los neófitos pueden efectuar análisis sencillos en una plataforma visual e intuitiva; mientras que los especialistas disponen de numeras opciones de configuración en un entorno seguro y escalable.

Además, su gran implantación en todo el mundo ha favorecido el crecimiento de una comunidad online muy activa, que comparte a menudo sus experiencias con la herramienta en foros y redes sociales.

3.     MicroStrategy

La rapidez y la inmediatez son las grandes ventajas que sitúan a MicroStrategy como una de las herramientas de Business Intelligence con más potencial en 2021. Ofrece numerosas posibilidades de integración con otras aplicaciones (con Power BI, entre otras), permite efectuar análisis en tiempo real y acaba con los silos en el manejo de la información empresarial. Además, provee funcionalidades específicas para el entorno móvil.

Uso de herramientas de Business Intelligence en escritorio y móvil

4.     Oracle BI

Oracle BI es la suite de soluciones de Inteligencia de Negocio de Oracle. Presenta dos grandes bazas como herramienta de Business Intelligence para este año:

5.     Qlik

Qlik lleva a gala su posición de liderazgo dentro del Cuadrante Mágico de Gartner 2020 para herramientas de analítica y Business Intelligence, donde comparte trono con Microsoft y Tableau. Lo mejor de esta plataforma es que, con un tono pedagógico en su comunicación, intenta hacer fácil lo difícil, apostando por la simplificación de sus comandos y la automatización de las órdenes. En definitiva, persigue que los usuarios le pierdan el miedo a los datos.

6.     SAP BusinessObjects Business Intelligence

La plataforma BusinessObjects Business Intelligence de SAP destaca por su escalabilidad, requisito extremadamente valioso para startups y empresas en expansión. Se trata de una herramienta de Inteligencia de Negocio con implementación local y 100% integrable con el paquete Office de Microsoft, lo que la convierte en la solución de elección para aquellas compañías que han hecho de Excel su biblia corporativa.

¿Quieres aprender a manejar estas y otras herramientas de Business Intelligence y orientar tu carrera profesional hacia este campo? En datahack encontrarás a tu mejor aliado. Consulta nuestra oferta de formación 100% online en Big Data, práctica y adaptada a las necesidades del mercado. ¿Tienes dudas? Pregúntanos directamente todo lo que se te ocurra. ¡Empieza ya a abrirte camino como especialista en Inteligencia de Negocio!

Dentro del mundo del Data Science, existen iniciativas muy interesantes. Una de las más importantes y con muy buenas herramientas son los Google Colab. Además, si queréis saber más sobre la relación que existe entre el Data y esta aplicación, podéis leer nuestro artículo de introducción. Rápido y sencillo de entender.

Google Colab
Google Colab y Big Data

En primer lugar, Google Colab es un entorno de máquinas virtuales y está basado en Jupyter Notebooks y Python, una herramienta de análisis de datos que combina código, salida y texto descriptivo en un solo documento. Es una aplicación muy útil que nos ofrece Google de manera gratuita pero limitada. A pesar de esto, existe la versión PRO. Es de fácil colaboración, mediante un código puedes invitar a colaboradores para trabajar en tu equipo. Puedes escribir y ejecutar tus códigos. Además, Google Colab tiene bibliotecas preinstaladas de Data Science.

Otras aplicaciones:

La ventaja principal que ofrece es la GPU gratis.  De esta manera, todo será más rápido y sencillo para las personas que no tienen máquinas poderosas. De esta manera, el trabajo podrá ser delegado en la nube. Este programa mantiene el sistema notebook. Un documento ejecutable que, a parte de código Python, permite insertar imágenes, vídeos y enlaces que se ejecutarán en la terminal.

Si queréis saber más sobre Python, Google Colab, big data o data science, este es tu blog. Ofrecemos cursos a los que podéis echar un vistazo en nuestra web. Si tienes alguna duda o sugerencia, no dudes en contactar con nosotros.

Si te estás iniciando en el mundo del Big Data, probablemente te encontrarás un poco perdido entre la ensalada de términos que manejan los expertos. Inteligencia Artificial, Machine Learning, Internet de las Cosas… Se trata de piezas de un puzzle que debemos encajar para comprender cómo funciona esto de los datos y ser conscientes de todo el jugo que le podemos sacar. Uno de los componentes claves del cuadro es el Data Science o Ciencia de Datos, que desempeña un papel crucial a la hora de convertir los registros en bruto en información.

¿Qué es el Data Science?

El Data Science o Ciencia de Datos es una disciplina que combina técnicas matemáticas y herramientas tecnológicas para la extracción, el estudio y el análisis de datos. El Data Science pretende, a partir de una observación minuciosa de la realidad, inferir conclusiones útiles para anticipar tendencias y guiar la toma de decisiones.

El Data Science se basa en tres pilares:

El Data Science está íntimamente ligado con el Big Data y la minería de datos. También existen otros conceptos de la Ciencia de Datos que es imprescindible dominar si quieres hacer de tu pasión por los datos tu profesión.

¿Para qué sirve la Ciencia de Datos?

Al Data Science se le puede sacar partido desde ámbitos muy diversos. Podemos pensar en la Salud, con el desarrollo de modelos de diagnóstico cada vez más certeros; o en los Recursos Humanos, donde la Ciencia de Datos nos ayudará a encontrar al candidato perfecto, a analizar el desempeño de los trabajadores o a retener el talento.

Pero la lista es casi infinita, ya que otros sectores como las finanzas, los seguros, el marketing digital, los medios de comunicación, la industria o la logística también pueden aprovecharse de las aplicaciones de esta disciplina. En general, las empresas están potenciando sus áreas de Business Intelligence con Data Sciencists para tener una visión del negocio más analítica y optimizar los procesos de toma de decisiones clave.

¿Qué se necesita para trabajar como científico de datos?

El perfil del científico de datos requiere una mezcla de pensamiento matemático y analítico, aderezado con la capacidad de generar insights y trasladarlos a los demás de forma sencilla y comprensible.

Qué es el Data Science: científica de datos trabajando

La mayoría de las ofertas de empleo para data scientists inciden en la importancia de saber programar con Python o R y estar familiarizado con Apache Spark. En cualquier caso, si no cuentas con estas habilidades informáticas no es una barrera infranqueable, puesto que los másters en Data Science como el de datahack incluyen estas disciplinas como parte de su programa de formación.

¿Por qué y dónde estudiar Data Science?

La profesión de científico de datos ocupa el tercer puesto en el ranking de profesiones emergentes de 2020 (Emerging Jobs Report) que elabora cada año LinkedIn. Estos especialistas están adquiriendo nuevas responsabilidades y ocupando espacios que antes se llenaban con otros roles más tradicionales. Su contratación creció nada menos que un 37% el año pasado con respecto al ejercicio anterior.

Estudiar un máster en Data Science te dará la oportunidad de abrirte paso dentro de este prometedor itinerario laboral. Y si te decides por el Máster Online en Data Science de datahack tendrás aún más ventajas: formación práctica, dinámica, intensiva y 100% en streaming, basada en nuestra metodología Learning by doing. Infórmate ahora: ¡una de las plazas de la próxima convocatoria te está esperando!

Por Antoni Munar.

Estamos rodeados de noticias del calentamiento global, y sin embargo nos sorprenden nevadas y olas de frio que rompen récords históricos. Son más propias de una glaciación. ¿En qué quedamos entonces?

nevadas

La intuición nos hace pensar que a mas madera más fuego y al contrario, cuanta más agua menos fuego. Esta forma de razonar es consecuencia de un mecanismo de supervivencia natural que nos ha permitido sobrevivir desde la sabana originaria hasta la revolución industrial actual [1], pero con la revolución tecnológica y nuestro progresivo control de la naturaleza, nuestra capacidad de acción es más potente, y los fenómenos sobre los qué actuamos se vuelven más complejos. Correlación no implica causación (que dos cosas ocurran al mismo tiempo no significa automáticamente que una sea causa de la otra) y al contrario, anti-correlación no significa que una excluya a la otra.

¿Qué pasa entonces con las nevadas?

En primer lugar, no hay que confundir clima y situaciones meteorológicas puntuales, "el tiempo". Como distinguir los cambios en el curso de un rio, que se esté secándose, de los remolinos puntuales que pueden ocurrir. Porque, por ejemplo, ha caído un árbol o un desprendimiento y se produce una inundación en esa parte concreta al liberarse el agua embalsada. Es cierto que al final la tendencia prevalecerá, y al no haber en absoluto agua todo estará seco, pero en el camino pueden darse estos fenómenos en apariencia contradictorios.

Entonces,  ¿ qué ocurre con el calentamiento global y estas nevadas ? ¿ Pueden ser unas consecuencias del otro? Si, y en efecto es algo que los propios modelos del calentamiento global predicen [2]. El clima en la tierra es un complejo equilibrio dinámico entre calor recibido del sol durante el día y enfriamiento durante la noche, las oscilaciones de las estaciones, zonas polares y ecuatoriales, zonas terrestres y corrientes marinas, salinidad, acción de los seres vivos y últimamente la acción del ser humano, por su escala sin precedentes.

En este equilibrio, un símil útil puede ser como si estuviéramos en una cocina, con su horno y su nevera. Por siglos, la nevera y el horno en funcionamiento han estado en equilibrio. Últimamente encendemos el horno más de la cuenta, lo que ha hecho -y aquí es donde el símil no es exacto- que la puerta de la nevera se abra más de la cuenta, y el aire frio que se escapa es lo que nos está azotando en forma de "Filomenas" varias.

Esto que parece una anécdota, es justamente lo que estudios científicos detallados parecen indicar [3]. El calentamiento global está cambiando el equilibrio entre el frío polar y las latitudes medias en el planeta, dando lugar a estos fenómenos extremos. La evidencia actual apunta a que, si no hacemos nada, en el largo plazo, la nevera dejara definitivamente de funcionar. Tendremos un horno total, aunque por el camino hayamos tenido periodos ocasionales de congelación. 

¿Qué relación hay entre el big data y el calentamiento global?

El big data ha permitido a las nuevas tecnologías poder analizar de forma más precisa y rápida el impacto que tiene el calentamiento global en nuestro planeta. Un ejemplo claro es el de los incendios de Australia. Gracias a la información recopilada por los satélites, pudieron predecir el movimiento del incendio y detectar posibles focos. En un entorno climático cambiante e incierto, los riesgos se disparan y el big data está empezando a ser útil a la hora de analizar los riesgos a largo plazo.


Si tenéis alguna duda o sugerencia, no dudéis en enviarnos un mensaje.

La profesión de ingeniero de datos es una de las especializaciones que van ganando enteros en el ecosistema del Big Data. El Emerging Jobs Report de 2020 de LinkedIn la coloca entre las 15 ocupaciones emergentes más destacadas de los últimos cinco años, compartiendo protagonismo con puestos tan sugerentes como experto en Inteligencia Artificial, científico de datos o Site Reliability Engineer. En este listado, los ingenieros de datos se sitúan en la octava posición, con la constatación por parte de LinkedIn de que su contratación ha crecido un 35% entre 2015 y 2019.

Y tú, ¿te sentirías cómodo trabajando como data engineer? ¿Se trata de una vía laboral que te gustaría explorar? Mira lo que hacen estos profesionales del Big Data y, si encaja con tu personalidad y tus objetivos, quédate con nosotros. ¡En datahack te ayudaremos a avanzar en tu carrera!

¿Qué es un ingeniero de datos?

El ingeniero de datos es el profesional encargado de sentar las bases para la adquisición, el almacenamiento, la transformación y la gestión de los datos en una organización. Este especialista asume la configuración de la infraestructura tecnológica necesaria para que el gran volumen de datos no estructurados recogidos se convierta en materia prima accesible para otros especialistas en Big Data, como los data analysts y los científicos de datos.

Los data engineers trabajan diseñando, creando y manteniendo la arquitectura de las bases de datos y de los sistemas de procesamiento, de manera que la posterior labor de explotación, análisis e interpretación de la información pueda llevarse a cabo sin incidencias, de manera ininterrumpida, segura y eficaz.

¿Qué hace un ingeniero de datos en su día a día?

El día a día del ingeniero de datos transcurre, fundamentalmente, entre procesos ETL (Extract, Transform, Load), es decir, desarrollando tareas de extracción, transformación y carga de datos, moviéndolos entre diferentes entornos y depurándolos para que lleguen normalizados y estructurados a las manos de analistas y data scientists. El papel del data engineer es, en este caso, comparable al de un fontanero, ya que se centra en implementar y mantener en buen estado la red de pipelines (tuberías) por la que los datos (a semejanza del agua) correrán para alimentar el funcionamiento de toda la organización.

1. Extracción

En la primera etapa del proceso ETL, el ingeniero de datos se encarga de sacar los registros de distintas localizaciones, así como de estudiar la incorporación de nuevas fuentes al flujo Big Data de la compañía. Estos datos se presentan en diferentes formatos, integrando variables muy diversas, y pasarán a un data lake, u otro tipo de repositorio donde esta información quedará almacenada en bruto, disponible para cualquier uso futuro.

2. Transformación

En un segundo paso, el data engineer coordina la limpieza de los datos, eliminando duplicados, corrigiendo errores y desechando el material inservible; y los elabora y clasifica para convertirlos en un conjunto homogéneo.

3. Carga

Finalmente, el ingeniero de datos lidera la carga de estos en su destino, ya sea este una base de datos ubicada en un servidor propio de la compañía o un data warehouse en la nube. Además de la correcta exportación, una de las preocupaciones recurrentes en esta etapa final es la vigilancia de la seguridad, puesto que el data engineer ha de garantizar que la información se guarda a salvo de ciberataques y de accesos no autorizados.

¿Qué se necesita para trabajar como ingeniero de datos?

Para trabajar como ingeniero de datos es preciso adquirir las destrezas técnicas que requiere un proceso ETL completo. La mayoría de las empresas piden a sus candidatos que sepan manejar bases de datos SQL y NoSQL, que estén familiarizados con servicios cloud (como Microsoft Azure o Amazon Web Services) y que se muevan con soltura dentro del ecosistema Hadoop (MapReduce, Hive, etc.).

También te ayudará tener conocimientos de:

2021 arranca repleto de oportunidades. Si hace poco te explicábamos por qué es un buen momento para estudiar un Máster en Big Data & Analytics, hoy te avisamos de que se acerca otro tren que no deberías dejar escapar: el del Máster Experto en Arquitectura Big Data de datahack. Una formación imprescindible que te capacitará para trabajar como ingeniero de datos en tan solo 15 semanas. ¡Contacta con nosotros ahora y apúntate!

La minería de datos se define como una serie de técnicas encaminadas a identificar patrones implícitos dentro de grandes conjuntos de datos, con el fin de entender sus mecanismos de comportamiento, su interrelación y su potencial evolución futura. El data mining es una tecnología exploratoria clave en los proyectos de Big Data, y se puede poner en funcionamiento tanto para resolver preguntas específicas como para la extracción de información de manera general, buscando tendencias y anomalías en la muestra.

Hace poco abordábamos en el Blog de datahack algunas de las metodologías de data mining más conocidas para el análisis en Big Data, como KDD, SEMMA y CRISP-DM. Hoy iremos un paso más allá y nos centraremos en las 7 técnicas de minería de datos más utilizadas en el mundo del Big Data. Aquí tienes nuestra selección:

1.     Árboles de decisión

Los árboles de decisión son diagramas lógicos que plantean, ante una determinada situación, cuáles son las opciones de intervención posibles, agregando sus implicaciones, costes, ventajas y desventajas. Se basan en la aplicación de un algoritmo clasificatorio que, a partir de un nodo, desarrolla ramas (decisiones) y determina el potencial resultado de cada una de ellas.

2.     Redes neuronales

Las redes neuronales son modelos que, a través del aprendizaje automático, intentan llenar los vacíos de interpretación en un sistema. Para ello imitan, en cierto modo, las conexiones entre neuronas que se producen en el sistema nervioso de los seres vivos.

Las redes neuronales se engloban dentro de las técnicas predictivas de minería de datos y, como todo modelo de machine learning, es preciso entrenarlas con distintos data sets con los que ir matizando los pesos de las neuronas para asegurar la fiabilidad de sus respuestas. Existen diferentes tipos de redes neuronales para data mining, como el perceptrón simple y el multicapa o los mapas de Kohonen.

3.     Clustering

El clustering o agrupamiento en minería de datos tiene como objetivo la segmentación de elementos que presentan alguna característica definitoria en común. En este caso, el algoritmo atiende a condiciones de cercanía o similitud para hacer su trabajo.

Esta técnica de data mining está muy extendida en el mundo del marketing para el envío de correos y promociones personalizadas a los usuarios que integran una base de datos.

4.     Extracción de reglas de asociación

La extracción de reglas de asociación como técnica de minería de datos persigue la inferencia de silogismos del tipo si…/entonces… a partir de conjuntos de registros. Esta búsqueda de regularidades nos permite discriminar y conocer mejor a una muestra, y establecer qué atributo o combinación de atributos es probable que traiga consigo una determinada consecuencia.

Profesional de Big Data utilizando técnicas de minería de datos

5.     Redes bayesianas

Las redes bayesianas son representaciones gráficas de relaciones de dependencia probabilística entre distintas variables. Sirven para dar solución tanto a problemas descriptivos como predictivos. Entre sus aplicaciones se incluyen el diagnóstico médico o el cálculo del riesgo en el sector financiero y asegurador.

6.     Regresión

La regresión como técnica de minería de datos toma como punto de partida una serie histórica para, a partir de ella, predecir qué sucederá a continuación. De manera resumida, podemos decir que, a través de este método, se localizan regularidades dentro de los datos que permiten trazar una línea de evolución extrapolable al futuro.

7.     Modelado estadístico

El modelado estadístico pretende dibujar el mapa de relaciones entre variables explicativas y dependientes, y mostrar cómo cambia a medida que lo hacen los parámetros considerados en su planteamiento. Lo hace estableciendo una ecuación matemática que intenta reproducir la realidad de la manera más fiel posible, incorporando, incluso, la influencia del azar y el posible margen de error en el cálculo.

¿Conocías estas técnicas de minería de datos para Big Data? ¿Has aplicado alguna de ellas en tus proyectos profesionales? Sea como sea, en datahack podemos acompañarte en tu iniciación o a ayudarte a perfeccionar tus conocimientos de data mining. Comienza desde cero con nuestro curso básico de dos meses Get Started in Data Analytics o matricúlate en nuestro Máster en Big Data & Analytics para convertirte en todo un experto. Una formación intensiva y 100% online diseñada para abrirte camino como profesional del Big Data. ¡Pregúntanos ahora, las plazas vuelan!

Debido al aumento del teletrabajo, los ciberataques se han incrementado este 2020. En 2021 se espera que sean aún más frecuentes, por lo que hay que tomar medidas para evitarlos. El machine learning y la inteligencia artificial son dos medidas indispensables para mantener la seguridad en tu negocio. Hay amenazas que el antivirus no es capaz de detectar y frenar.


Ciberataques

En nuestro blog, publicamos un post sobre las posibilidades que ofrece el machine learning y la inteligencia artificial. Entre ellos estaba la ciberseguridad.

La empresa experta en seguridad cibernética "CrowdStrike" realizó un estudio del aumento de estos ciberataques durante la pandemia 2020. El teletrabajo es recomendado por muchas empresas, pero también puede conllevar muchos problemas de seguridad. A pesar de los antivirus, los grupos de ataque siguen desarrollando nuevas técnicas y programas para entrar en los ordenadores.

Durante la pandemia, el teletrabajo está siendo primordial. Pero si un trabajador recibe un correo no deseado con links o páginas web desconocidas, no debe abrir el mensaje.

Hay que tener los sistemas de la IA actualizados ya que, según algunos reportes, los ciber atacantes están usando la propia inteligencia artificial para entrar en los softwares de las empresas. Al aumentar el número de equipos y asistentes virtuales, incrementa también las posibilidades de recibir un ataque. Los más utilizados son: la voz, las huellas dactilares, ataques de phishing e ingeniería social y técnicas avanzadas de ocultación de malware. El machine learning también puede detectar el tráfico de la web y el comportamiento de lo usuarios.

¿Cómo evitar estos ciberataques?

Esta ciberseguridad, junto con el machine learning, puede detectar intrusos. Otras opciones son: proteger la privacidad, descubrir y defender comportamientos extraños o amenazas encubiertas. Gracias a la Inteligencia Artificial podemos analizar cualquier proceso. Además de tomar decisiones y reaccionar de manera más rápida, fácil y segura. Podemos desarrollar sistemas que, con procesos, nos permitan automatizar estos procesos.


Próximamente tendremos webinars sobre seguridad para tu negocio. Si tenéis alguna duda, podéis contactar con nosotros. Estamos abiertos a cualquier duda, opinión o sugerencia.

chevron-down