¡Ni los algoritmos me entienden! O por qué las recomendaciones de ciertas plataformas son un asco.

Ni los algoritmos me entienden - por qué las recomendaciones un asco -sesgos algoritmos

A veces busco la ficha de un libro para hacer la publicación y hacer la reseña en mi blog. Luego, Google, o Amazon, o la plataforma que sea, me sugieren libros similares al que he buscado. Lo que no saben es que a veces odié ese libro y que lo que me sugieren lo descarto en el acto. 

También, a veces, busco algo para hacer un regalo a un conocido, o para mi padre, que el hombre no sabe ni abrir Google, y de repente me empiezan a bombardear con publicidad relacionada. O me empiezan a llegar anuncios para que me forme en Big Data, sin tener en cuenta que ya trabajo en la escuela con el mejor Master de Big Data & Analytics, solo porque he buscado un artículo ¡que he escrito yo! 

¿No has vivido alguna vez situaciones similares?

¿Por qué pasa esto?

La mayor parte de los motores de recomendación se basan en algoritmos de inteligencia artificial. Estos algoritmos se basan en el pensamiento convergente, de modo que sugieren contenidos afines según el etiquetado o hábitos de consumo de otros usuarios “similares a ti”.

¿Qué significa esto? Que básicamente siguen esta lógica:

  • Un mínimo de x personas busca/compra/visita/valora positivamente A, B y C
  • Una persona ha buscado/ha comprado/ha visitado/ha valorado positivamente solo A y B
  • Esa persona, por lógica, estará interesada en C

Por lo tanto, no tendrán en cuenta variables como la posibilidad de que busques o compres en nombre de otra persona, o tu contexto personal.

Al final, todo depende de cómo el algoritmo está diseñado y de cómo el modelo de machine learning ha aprendido. Por ejemplo, los algoritmos de spotify se basan en el mapa de gustos y las listas de reproducción. Los de youtube, por su parte, se fijan en los vídeos que ves, los que no, cuánto tiempo pasas viendo cada vídeo, tus “me gusta” o “no me gusta” y en el “No me interesa”, a lo que suman las etiquetas de cada contenido y la relevancia del mismo.

Está claro que algunos algoritmos son más complejos que otros y se basan en más variables, pero todos pueden dar lugar a sesgos que les hagan fallar. Estrepitosamente.

Los sesgos en los algoritmos, o por qué a veces fallan

No debemos olvidar que un algoritmo no deja de ser un serie de instrucciones a ejecutar para solucionar un problema. Todo muy lógico. Muy matemático. Pero no olvidemos que están diseñados por personas. Y los pasos que seguimos las personas para solucionar ciertos problemas no son siempre los más adecuados, nuestras prioridades tienen sesgos. Por ello, los algoritmos heredarán los sesgos de sus creadores.

Además, por supuesto, los algoritmos solo pueden basarse en los datos que tienen a su disposición. El resto de variables las asumen. Es decir, que asumen que busco un libro porque me gusta, que compro algo para mí y no para mi padre…

Aparte de eso, hay que tener en cuenta una cosa. Las personas somos más que matemáticas y pensamiento convergente. Las personas tenemos imaginación y curiosidad; seguimos caminos que la lógica no puede predecir. Esto es lo que se llama pensamiento divegente, lo que les falta a los algoritmos y lo que no son capaces de comprender.

Cuando el sesgo de la máquina se junta con el sesgo de los humanos

Al margen de los sesgos que lleven “de fábrica” los algoritmos, heredados de sus creadores, también hay un peligro: que acierten demasiado. Por ejemplo, la mayoría de los algoritmos de redes sociales están destinados a mostrar contenidos similares a los buscados, sin entrar en valoraciones éticas.

Por lo tanto, si el usuario tiene un sesgo machista, racista, antiecologista… el algoritmo tenderá a mostrarle más contenido con ese sesgo. Con esto, el algoritmo reforzará dicho sesgo e incluso lo radicalizará. Y apartará al usuario de  la información no alineada con su ideología y los aísla en burbujas ideológicas y culturales. Esto es lo que se llama el filtro burbuja.

El entorno en el que el modelo de machine leaning se ha entrenado también es relevante. Por ejemplo, una inteligenia artificial que aprende en según qué redes sociales puede convertirse fácilmente en un troll. O (y esto es más sensible) algoritmos de selección de personal o para encontrar pareja pueden acabar con sesgos machistas porque en el conjunto de entrenamiento los seleccionados eran hombres (en el primer caso) o mujeres jóvenes y atractivas (en el segundo). Esto es porque aprende de lo que “lee”, sin hacer valoraciones éticas. Pensamiento convergente puro y duro.

Cómo evitar los sesgos en los algoritmos

Por todo eso, los buenos profesionales del Big Data tienen que tener mucho cuidado tanto a la hora de diseñar los algoritmos como a la hora de elegir los conjuntos de entrenamiento para sus modelos de machine learning.

Además, ya se están tomando medidas para añadir elementos más humanos que incluyan el pensamiento divergente en ciertos aspectos. Por ejemplo, algunas plataformas están probando recomendaciones basadas en listas hechas por humanos.

Pero, sobre todo, hay que estar bien informado de que se pueden producir esos sesgos y combatirlos con un poco de pensamiento divergente… o volviendo loco al algoritmo buscando una cosa y la contraria, para que no sepa a qué atenerse y no genere el sesgo. ^^


Déborah Fernández, responsable de marketing y comunicación de datahack

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *