En un mercado laboral tan competitivo como el actual, es importante que los que buscan empleo en Big Data tengan una idea clara de lo que las empresas buscan.
Un informe del Boston Consulting Group sitúa a España como el octavo país "más atractivo" del mundo para el traslado de trabajadores tecnológicos, por detrás de Francia y Suiza. Esto lo facilita la alta calidad de vida en España y nuestra cultura.
Asimismo, en España, el 70% de los trabajadores tecnológicos son hombres, y sólo el 30% mujeres. Algunas instituciones, como la Universidad de Granada, están desarrollando iniciativas para eliminar esta brecha, pero todavía hay que trabajar mucho para lograr un equilibrio.
Prioridades en la demanda del sector Big Data según publica en varias entrevistas el MIT
Jonathan Lowe, Jefe de Ciencia de Datos en Pfizer
Jonathan Lowe aclara que a veces hacemos excepciones y contratamos sin tener todas las habilidades, y nos fijamos en la experiencia en el negocio, "Si alguien dice: 'He trabajado en un laboratorio de calidad durante la mitad de mi carrera y ahora, durante los últimos años, he estado aprendiendo más ciencia de datos', nosotros engulliremos a esas personas".
Yichen Sun, Directora de Ciencia de Datos en Netflix
Por otro lado, según Yichen Sun, "necesitamos a alguien que tenga principios y sea práctico a la vez, que haga las concesiones adecuadas y que sea capaz de articular el 'por qué' de esas decisiones técnicas".
Cerrar la brecha entre el negocio y los datos de una empresa son las principales prioridades, haciendo hincapié en la importancia de traducir con precisión la información obtenida de los datos en estrategias empresariales viables.
Por ello, las funciones actuales centradas en los datos también requieren curiosidad, lo que contribuye a una mentalidad innovadora y orientada a la resolución de problemas. Aunque un experto en datos con una solución en busca de un problema no es algo que rompa el trato, Sun dijo que intentará entrenar a la persona para que entienda que su solución puede ser la aplicación correcta para un problema, pero que puede haber una forma "aún más elegante o incluso más simple de hacerlo".
En relación con esto, Sun también busca a "alguien que sea más reflexivo, que sea capaz de recibir esta retroalimentación de una manera muy productiva y ser adaptable en términos de qué enfoque utiliza."
Nadine Kawkabani, Global Business Strategy Director en MFS Investment Management
Por último, Nadine Kawkabani declara que la necesidad de competencias interpersonales son ejemplos de cómo han cambiado los puestos de trabajo relacionados con los datos y el análisis, y la cultura asociada. Ya no se trata de trabajar con datos; se trata de garantizar que los datos tengan sentido y que las personas que los manejan entiendan también cómo influyen en la estrategia de la empresa.
"Todos dependemos de todos", afirma Kawkabani. "Puedo plantear la mejor estrategia, pero si no tengo buenos datos, buenos gráficos, datos precisos y datos oportunos e interpretables, no significan nada".
Conclusiones
Tras estas opiniones podemos entonces concluir que en un mercado laboral tan competitivo como el actual, las empresas buscan a los mejores y para ello no solo hay que ser “excelente” en datos, hay que ser también excelente en:
Flexibilidad y Adaptabilidad
Resolución de problemas complejos
Responsabilidad y Corresponsabilidad
Gestión del tiempo
Tolerancia a la presión
Conocimientos específicos del sector, del negocio, de la competencia
Trabajo en equipo
Humanidad
Sentido del humor
Cualquier empresario buscará a la persona que genere mayor valor añadido a su negocio, que aumente la calidad de lo que hace o que sea capaz de ir más allá de lo esperado… esto es escalable a cualquier sector y a cualquier área, no solo a las relacionadas con los datos. Esto nos lleva a que debemos ser los mejores a nivel técnico y a nivel competencial
Por otro lado, un informe del Boston Consulting Group sitúa a España como el octavo país "más atractivo" del mundo para el traslado de trabajadores tecnológicos, por detrás de Francia y Suiza. Claramente, la alta calidad de vida en España y nuestra cultura facilitan esta posición.
Desafortunadamente sigue existiendo diferencia de género en España, ya que como se ha explicado anteriormente, el 70% de los trabajadores tecnológicos son hombres. Sólo el 30% son mujeres.
Según IESE, a pesar de las elevadas tasas de desempleo juvenil en España, el 75% de las empresas encuestadas afirma estar encontrando importantes dificultades para contratar talento con las competencias adecuadas para cubrir sus necesidades.
Además, el 76% de las empresas señalan una brecha de competencias entre lo que necesitan sus organizaciones y la formación ofrecida por el sistema universitario. Al mismo tiempo, el 79% de las empresas señalan una brecha de competencias en los candidatos con formación profesional.
En las grandes empresas encuestadas se espera que el teletrabajo represente casi el 40% de las horas de trabajo en 2025. Frente a esto, las habilidades de liderazgo de los directivos cobrarán mayor relevancia (según el 88% de las empresas). El resto de la plantilla deberá mostrar más capacidad de aprendizaje y de trabajo en equipo (según el 60% y el 59% de las empresas, respectivamente), entre otras habilidades.
Finalmente, ya que hablamos de la empleabilidad hablemos también de los salarios tomando varias fuentes:
Data Center Market cuenta que un analista de datos entre 50.000 y 80.000 euros. Comienza tu camino en el análisis de datos con el Curso GRATUITO de Power BI de la mano de IBM SkillsBuild y datahack.
BigQuery es un almacén de datos como servicio que nos permite cargar nuestros datos y en pocos minutos hacer consultas SQL con ellos y sacar conclusiones de una manera económica, fiable y rápida.
Esta pensado tanto para una pequeña empresa como para grandes corporaciones ya que es escalable desde unos pocos gigabytes a cientos de petabytes. Tiene la ventaja de resolver las consultas utilizando el lenguaje SQL que es ampliamente conocido y por su puesto los datos cuentan con la seguridad que Google puede ofrecer.
Están cifrados en disco y en tránsito y son durables y altamente disponibles.
Y finalmente es un servicio gestionado, es decir, no nos tenemos que preocupar ni de la infraestructura ni de las comunicaciones ni de la seguridad, Google lo hace por nosotros.
Juan Valladares
CEO in Best In BI y profesor en Datahack School
Autor del artículo
Almacén de datos empresariales
Insertar
Almacenar
Analizar
Visualizar
Las organizaciones confían en los almacenes de datos para agregar datos de fuentes dispares, procesarlos y ponerlos a disposición para el análisis de datos que respalde su toma de decisiones estratégicas.
Casos de uso de BigQuery
Puede insertar datos en BigQuery mediante la carga por lotes o la transmisión de datos directamente para brindar información en tiempo real.
¿Qué es BigQuery?
Como almacén de datos totalmente administrado, Google se encarga de la infraestructura para que pueda concentrarse en analizar sus datos hasta una escala de petabytes.
Almacén de datos completamente administrado
ESCALA PETABYTE
Como almacén de datos totalmente administrado, Google se encarga de la infraestructura para que pueda concentrarse en analizar sus datos hasta una escala de petabytes.
Structured Query Language (SQL)
SELECTdepartamento_id, Avg(salario)
FROMempleados
WHEREsalario > 5.000
GROUP BYdepartamento_id
ORDER BY 2 ASC;
Si desea crear modelos de aprendizaje automático con los datos de su empresa, puede hacerlo con BigQuery ML. Con solo unas pocas líneas de SQL, puede entrenar y ejecutar modelos en sus datos de BigQuery sin necesidad de moverlos.
Aprendizaje Automático usando BigQuery
Cuando llega el momento de visualizar sus datos, BigQuery se integra con Looker, así como con varias otras herramientas de inteligencia comercial en su ecosistema de socios.
Visualización de Datos
Ahora, ¿cómo usar BigQuery? Afortunadamente, es sencillo comenzar a utilizar BigQuery.
Después de crear un proyecto de GCP, puede comenzar de inmediato a consultar conjuntos de datos públicos, que Google Cloud aloja y pone a disposición de todos los usuarios de BigQuery, o puede cargar sus propios datos en BigQuery para analizarlos.
¿Cómo usar BigQuery?
La interacción con BigQuery para cargar datos, ejecutar consultas o incluso crear modelos ML se puede hacer de tres maneras diferentes:
1. Mediante el uso de la interfaz de usuario y la Consola en la nube.
2. Mediante el uso de la herramienta de línea de comandos de BigQuery.
3. Haciendo llamadas a la API de BigQuery usando bibliotecas de clientes disponibles en varios idiomas.
Tres maneras de uso
BigQuery está integrado con el servicio de administración de acceso e identidad de Google Cloud para que pueda compartir de forma segura sus datos y conocimientos analíticos en toda la organización.
Seguridad de datos en BigQuery
¿Cuánto cuesta usar BigQuery?
Con BigQuery, paga por almacenar y consultar datos y transmitir inserciones. La carga y exportación de datos son gratuitas.
El coste de almacenamiento se basa en la cantidad de datos almacenados y tiene dos tarifas según la frecuencia con la que cambian los datos.
El coste de la consulta puede ser bajo demanda, lo que significa que se le cobra por consulta, por la cantidad de datos procesados, o puede ser fijo para los clientes que desean comprar recursos dedicados.
Beneficios
BigQuery es escalable desde unos pocos megabytes a gigabytes y hasta cientos de petabytes de manera horizontal con alto rendimiento.
Se lleva utilizando en Google desde hace más de 10 años con volúmenes de datos muy altos, como os podéis imaginar.
Es muy sencillo de usar y, al ser un servicio gestionado, Google se encarga de escalar tanto el almacenamiento como la computación.
Como utiliza SQL para las consultas cualquier desarrollador analista científico de datos puede hacer sus consultas sin necesidad de expertos en la herramienta.
Permite compartir el acceso a los datos y a los resultados con un grupo de usuarios amplio en nuestra organización incluyendo conjunto de datos públicos y conjuntos de datos de pago.
Es seguro, los datos están cifrados incluso con tus propias claves en todo momento.
La gestión de accesos es granular. Es decir, podemos definir que usuarios pueden acceder a los datos y como y en cada momento.
Y, finalmente, permite disminuir el coste de propiedad de tu almacén de datos corporativos con un pago por uso y una facturación flexible con detalles de coste para cada proyecto y cada recurso.
Sumérgete en el mundo de Big Data en nuestro curso Get Started in Data Analytics.
Las bases de datos son almacenes que nos permiten guardar grandes cantidades de información de forma organizada. Suelen contener datos relacionados con diversas temáticas y categorizados, aunque comparten entre sí algún tipo de vínculo. La mayoría de las bases de datos están en formato digital y ofrecen un gran abanico de soluciones al almacenamiento de datos.
Existe software denominado SGBD (Database Management System – DBMS en inglés), que permiten el almacenamiento y recuperación de datos de forma rápida y estructurada. En este artículo veremos la tipología de las bases de datos de menor a mayor grado de complejidad.
Bases de datos relacionales
Es el modelo más utilizado para representar problemas y para administrar datos de forma dinámica. Se basa en el uso de “relaciones”. Se compone principalmente de tablas que están formadas por registros y campos (Comparando con Excel, serían hojas formadas por filas y columnas). Las tablas se relacionan entre sí por los campos comunes (productos, servicios, etc.). La información puede ser recuperada mediante “consultas” que permiten administrar con gran flexibilidad la información.
Lo más habitual es que estas consultas se construyan mediante un lenguaje SQL, Structured Query Language (Lenguaje Estructurado de Consultas), un estándar implementado por los principales sistemas de gestión de base de datos. Para su diseño, estas bases de datos experimentan un proceso denominado “normalización de una base de datos”, que garantiza la coherencia entre los datos.
Bases de datos multidimensionales
Funcionan mediante cubos OLAP (On Line Analytical Processing), están pensadas para el desarrollo de aplicaciones muy concretas. Organizan su análisis de datos mediante dimensiones. No poseen demasiadas diferencias con las anteriores, salvo en un nivel conceptual. En la base de datos multidimensionale los atributos de una tabla pueden ser de dos clases. Pueden representar dimensiones de una tabla o métricas de consulta. Su destino suele ser el área de Business Intelligence de las empresas y su uso para la creación de cuadros de mando.
Bases de datos documentales
Permiten la realización de búsquedas más potentes y la indexación a texto completo, lo que las capacita para almacenar grandes cantidades de información de antecedentes históricos.
Bases de datos jerárquicas
La organización de los datos se realiza en forma de árbol invertido, en la que un nodo padre de información puede tener varios hijos. El nodo sin ascendencia se denomina raíz, mientras que los nodos sin descendencia son conocidos como hojas. Este tipo de base de datos es muy utilizado en aplicaciones que trabajan con una gran cantidad de información y datos muy compartidos, pues permiten crear estructuras estables de enorme rendimiento. Sin embargo, su incapacidad para representar correctamente la redundancia de datos limita su efectividad.
Bases de datos deductivas
Las bases de datos deductivas permiten, como su nombre indica, inferir deducciones. Se construyen almacenando reglas y hechos. También se denominan bases de datos lógicas, pues basan su funcionamiento en la lógica matemática. Las bases de datos deductivas satisfacen las limitaciones de la base de datos relacional, al poder responder a consultas recursivas y deducir relaciones indirectas entre los datos almacenados.
Bases de datos orientadas a objetos
La orientación a objetos ofrece buena flexibilidad para manejar requisitos y no está limitada por el tipo de dato ni los lenguajes de consulta de los sistemas de gestión de bases de datos tradicionales. Proporcionan al diseñador la capacidad de especificar tanto la estructura de objetos complejos como las operaciones que se pueden ejercer sobre dichos objetos. Los usuarios pueden definir operaciones como parte de la definición de las bases de datos. Las operaciones (funciones) se especifican en dos partes. La signatura o interfaz de cada operación consta de su nombre más los tipos de datos de su argumento o parámetro. El método o implementación de la operación es especificado de forma separada, pudiéndose modificar sin afectar a la interfaz. Los programas de aplicación de los usuarios pueden invocar dichas operaciones a través de sus nombres y argumentos, dando igual la manera concreta de su implementación, lo que se resume en la independencia entre los programas y las operaciones.
Si quieres ampliar tu conocimiento en bases de datos y Big Data, contacta con nosotros o apúntate a nuestros eventos a través de nuestro MeetUp
Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.
Una de las labores principales del científico de datos Big Data es la conversión de datos en conocimiento útil para la empresa. Para realizar este interesante trabajo necesitan utilizar herramientas Big Data específicas, tanto de pago como de Open Source. De hecho, según la decimosexta encuesta deKDNuggets, el 64 por ciento de los científicos de datos utilizan ambas herramientas Big Data.
Desde la perspectiva de datahack, las diez herramientas Big Data imprescindibles para la correcta labor del científico de datos son las siguientes:
1.- SQL.Structured Query Language. Requiere manejo de fórmulas algebraicas y cálculo relacional. Es un lenguaje de acceso a base de datos.
2.- Python. Es un lenguaje avanzado de programación interpretado que posee una sintaxis capaz de producir código legible. Permite tanto programación dirigida a objetos como funcional e incluso imperativa (Instrucciones que le explican al ordenador cómo debe realizar una determinada tarea). Además, puede utilizarse en múltiples plataformas
3.- R. Es la más usada de las herramientas Big Data entre los científicos de datos, lo que asegura la existencia de multitud de paquetes y librerías fácilmente reutilizables. Es un lenguaje de programación con software de código abierto, destinado a la programación estadística y los entornos gráficos
4.- KNIM. Konstanz Information Miner, construido bajo la plataforma Eclipse, es una plataforma de minería de datos que permite el desarrollo de modelos en un entorno visual.
5.- RapidMiner. Permite desarrollar procesos analíticos de un entorno gráfico. Antiguamente era denominado YALE (Yet Another Learning Environment). Proporciona más de quinientos operadores dedicados al análisis de datos, incluyendo los necesarios para realizar operaciones input y output, pre-procesamiento y visualización. Tiene la ventaja de poder usar los algoritmos deWeka.
6.- Tableau. Se centra en la visualización de datos.
7.-Hadoop. Esta herramienta está actualmente considerada como el framework estándar para el procesamiento y almacenamiento de grandes volúmenes de datos.
8.- Spark. Es una ventana de trabajo de desarrollo. Su motor rápido le permite procesar datos a gran escala además de realizar procesamiento en memoria.
9.- SAS. SAS es la líder de las herramientas Big Data en el mercado del Business Intelligence.
10.- Excel. Esta herramienta de Microsoft es esencial como herramienta de creación y gestión de bases de datos.
Resumen de privacidad
Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.
Cookies estrictamente necesarias
Propiedad
Cookie
Finalidad
Plazo
datahack.es
_btrid
Cookie necesaria para la utilización de las opciones y servicios del sitio web
en un año
datahack.es
_gat_UA-32658908
-1
Cookie necesaria para la utilización de las opciones y servicios del sitio web
Sesión
google.com
__Secure-1PAPISI
D
Cookie necesaria para la utilización de las opciones y servicios del sitio web
en 2 años
google.com
__Secure-1PSID
Cookie necesaria para la utilización de las opciones y servicios del sitio web
en 2 años
google.com
__Secure-3PSIDC
C
Cookie necesaria para la utilización de las opciones y servicios del sitio web
en un año
Si desactivas esta cookie no podremos guardar tus preferencias. Esto significa que cada vez que visites esta web tendrás que activar o desactivar las cookies de nuevo.
Cookies de terceros
Propiedad
Cookie
Finalidad
Plazo
datahack.es
_ga
ID utiliza para identificar a los usuarios
en 2 años
datahack.es
_gid
ID utiliza para identificar a los usuarios durante 24 horas después de la última actividad
en 20 horas
google.com
__Secure-3PAPISI
D
Estas cookies se utilizan para entregar anuncios más relevantes para usted y sus intereses.
en 2 años
google.com
__Secure-3PSID
Estas cookies se utilizan para entregar anuncios más relevantes para usted y sus intereses.
en 2 años
Publicitarias
Propiedad
Cookie
Finalidad
Plazo
datahack.es
_fbp
Utilizado por Facebook para ofrecer una serie de productos tales como publicidad, ofertas en tiempo real de anunciantes terceros
en 3 meses
datahack.es
_gcl_au
Utilizado por Google AdSense para experimentar con la publicidad a través de la eficiencia de sitios web que utilizan sus servicios.
en 3 meses
google.com
APISID
Descargar ciertas herramientas de Google y guardar ciertas preferencias, por ejemplo, el número de resultados de la búsqueda por hoja o la activación del filtro SafeSearch. Ajusta los anuncios que aparecen en la búsqueda de Google.
en 2 años
google.com
HSID
Descargar ciertas herramientas de Google y guardar ciertas preferencias, por ejemplo, el número de resultados de la búsqueda por hoja o la activación del filtro SafeSearch. Ajusta los anuncios que aparecen en la búsqueda de Google.
en 2 años
google.com
SAPISID
Descargar ciertas herramientas de Google y guardar ciertas preferencias, por ejemplo, el número de resultados de la búsqueda por hoja o la activación del filtro SafeSearch. Ajusta los anuncios que aparecen en la búsqueda de Google.
en 2 años
google.com
SID
Descargar ciertas herramientas de Google y guardar ciertas preferencias, por ejemplo, el número de resultados de la búsqueda por hoja o la activación del filtro SafeSearch. Ajusta los anuncios que aparecen en la búsqueda de Google.
en 2 años
google.com
SIDCC
Descargar ciertas herramientas de Google y guardar ciertas preferencias, por ejemplo, el número de resultados de la búsqueda por hoja o la activación del filtro SafeSearch. Ajusta los anuncios que aparecen en la búsqueda de Google.
en un año
google.com
SSID
Descarga ciertas herramientas de Google y guarda ciertas preferencias, por ejemplo, el número de resultados de búsqueda por página o la activación del filtro SafeSearch.
Ajusta los anuncios que aparecen en la Búsqueda de Google.
en 2 años
¡Por favor, activa primero las cookies estrictamente necesarias para que podamos guardar tus preferencias!
Cookies adicionales
Los servicios de terceros son ajenos al control del editor. Los proveedores pueden modificar en todo momento sus condiciones de servicio, finalidad y utilización de las cookies, etc.