A veces busco la ficha de un libro para hacer la publicación y hacer la reseña en mi blog. Luego, Google, o Amazon, o la plataforma que sea, me sugieren libros similares al que he buscado. Lo que no saben es que a veces odié ese libro y que lo que me sugieren lo descarto en el acto.
También, a veces, busco algo para hacer un regalo a un conocido, o para mi padre, que el hombre no sabe ni abrir Google, y de repente me empiezan a bombardear con publicidad relacionada. O me empiezan a llegar anuncios para que me forme en Big Data, sin tener en cuenta que ya trabajo en la escuela con el mejor Master de Big Data & Analytics, solo porque he buscado un artículo ¡que he escrito yo!
¿No has vivido alguna vez situaciones similares?
La mayor parte de los motores de recomendación se basan en algoritmos de inteligencia artificial. Estos algoritmos se basan en el pensamiento convergente, de modo que sugieren contenidos afines según el etiquetado o hábitos de consumo de otros usuarios "similares a ti".
¿Qué significa esto? Que básicamente siguen esta lógica:
Por lo tanto, no tendrán en cuenta variables como la posibilidad de que busques o compres en nombre de otra persona, o tu contexto personal.
Al final, todo depende de cómo el algoritmo está diseñado y de cómo el modelo de machine learning ha aprendido. Por ejemplo, los algoritmos de spotify se basan en el mapa de gustos y las listas de reproducción. Los de youtube, por su parte, se fijan en los vídeos que ves, los que no, cuánto tiempo pasas viendo cada vídeo, tus "me gusta" o "no me gusta" y en el "No me interesa", a lo que suman las etiquetas de cada contenido y la relevancia del mismo.
Está claro que algunos algoritmos son más complejos que otros y se basan en más variables, pero todos pueden dar lugar a sesgos que les hagan fallar. Estrepitosamente.
No debemos olvidar que un algoritmo no deja de ser un serie de instrucciones a ejecutar para solucionar un problema. Todo muy lógico. Muy matemático. Pero no olvidemos que están diseñados por personas. Y los pasos que seguimos las personas para solucionar ciertos problemas no son siempre los más adecuados, nuestras prioridades tienen sesgos. Por ello, los algoritmos heredarán los sesgos de sus creadores.
Además, por supuesto, los algoritmos solo pueden basarse en los datos que tienen a su disposición. El resto de variables las asumen. Es decir, que asumen que busco un libro porque me gusta, que compro algo para mí y no para mi padre…
Aparte de eso, hay que tener en cuenta una cosa. Las personas somos más que matemáticas y pensamiento convergente. Las personas tenemos imaginación y curiosidad; seguimos caminos que la lógica no puede predecir. Esto es lo que se llama pensamiento divegente, lo que les falta a los algoritmos y lo que no son capaces de comprender.
Al margen de los sesgos que lleven “de fábrica” los algoritmos, heredados de sus creadores, también hay un peligro: que acierten demasiado. Por ejemplo, la mayoría de los algoritmos de redes sociales están destinados a mostrar contenidos similares a los buscados, sin entrar en valoraciones éticas.
Por lo tanto, si el usuario tiene un sesgo machista, racista, antiecologista… el algoritmo tenderá a mostrarle más contenido con ese sesgo. Con esto, el algoritmo reforzará dicho sesgo e incluso lo radicalizará. Y apartará al usuario de la información no alineada con su ideología y los aísla en burbujas ideológicas y culturales. Esto es lo que se llama el filtro burbuja.
El entorno en el que el modelo de machine leaning se ha entrenado también es relevante. Por ejemplo, una inteligenia artificial que aprende en según qué redes sociales puede convertirse fácilmente en un troll. O (y esto es más sensible) algoritmos de selección de personal o para encontrar pareja pueden acabar con sesgos machistas porque en el conjunto de entrenamiento los seleccionados eran hombres (en el primer caso) o mujeres jóvenes y atractivas (en el segundo). Esto es porque aprende de lo que “lee”, sin hacer valoraciones éticas. Pensamiento convergente puro y duro.
Por todo eso, los buenos profesionales del Big Data tienen que tener mucho cuidado tanto a la hora de diseñar los algoritmos como a la hora de elegir los conjuntos de entrenamiento para sus modelos de machine learning.
Además, ya se están tomando medidas para añadir elementos más humanos que incluyan el pensamiento divergente en ciertos aspectos. Por ejemplo, algunas plataformas están probando recomendaciones basadas en listas hechas por humanos.
Pero, sobre todo, hay que estar bien informado de que se pueden producir esos sesgos y combatirlos con un poco de pensamiento divergente… o volviendo loco al algoritmo buscando una cosa y la contraria, para que no sepa a qué atenerse y no genere el sesgo. ^^
Gracias al Master en Big Data Analytics 100% Online tendrás amplios conocimientos sobre las herramientas y técnicas analíticas necesarias para la modelización de los principales retos de negocio, con el fin de mejorar la toma de decisiones a través de los datos y el conocimiento.
Recibe nuestra programación mensual de eventos online y la apertura de nuevas convocatorias de cursos
En Datahack Consulting SL trataremos los datos que nos facilites con la finalidad de enviarte información relacionada con tu solicitud sobre nuestros servicios, así como enviarte comunicaciones informativas sobre nuestra actividad. Podrás ejercer los derechos de acceso, rectificación, limitación, oposición, portabilidad, o retirar el consentimiento enviando un email a administracion@datahack.es. También puedes solicitar la tutela de derechos ante la Autoridad de Control (AEPD). Puedes consultar información adicional y detallada sobre protección de datos en nuestra Política de Privacidad.
Llámanos, escríbenos al email o por WhatsApp o inicia un chat en la web y hablamos