El algoritmo de Twitter es racista, ¿o lo son sus datos?

67

La inteligencia artificial de Twitter es racista. Ese es el mensaje que muchos usuarios van a recibir. Porque en una reciente publicación, a la hora de recortar la imagen de forma automática para mostrar lo que considera más relevante, la persona que sale siempre es la de piel de color blanca y no negra.

¿Son las IA racistas?

Recorte imagenes Twitter

Como ya te contamos, Twitter ofrece desde hace mucho la capacidad de recortar las imágenes de un modo inteligente. Se basa en una serie de patrones y datos con los que, gracias a dicha función, no te debes preocupar por cómo va a quedar la imagen en el timeline de otros usuarios cuando repasen qué han publicado los usuarios a los que siguen o resto de tweets que aparecen en él.

Siempre verán lo más interesante. O, al menos, lo que la IA considere que es lo que debería tener más peso y relevancia para atraer al usuario que ve tu publicación en dicha plataforma. Si se usan las aplicaciones oficiales, porque en otros clientes de Twitter esto no funciona.

Sin embargo, ahora hay quien considera que la IA de Twitter es racista. Porque tras un pequeño experimento llevado a cabo por usuarios como @bascule o @JackCouvela el recorte siempre aplica a la persona blanca. Es decir, ni Barack Obama ni Chadwick Boseman (actor que interpretó a Black Panther) aparecen nunca a pesar de estar en las mismas imágenes, nunca se recorta para que ellos sean los que se vean en la vista reducida del timeline

¿Curioso? Sí, bastante, sobre todo porque da igual que se cambie el orden y que la cara de Barack Obama esté en la parte superior, inferior o el centro. Incluso que detalles como el color de la corbata u otros elementos se cambien para ver si los tienen en cuenta o no. Siempre es la persona blanca la que parece tener mayor relevancia.

Las IA no son racistas, son los datos

Con todo esto es fácil pensar que la IA de Twitter, ¿verdad? Incluso que todas las IA lo son. Pero eso no es cierto, o no lo es tal cual. Las inteligencias artificiales sólo tienen en cuenta los datos que los responsables de su desarrollo introducen. Si de base se le dan otras indicaciones, a medida que vayan aprendiendo considerarán valores distintos y en un recorte de este tipo podrías ser perfectamente Barack Obama o Boseman los que apareciesen.

Por tanto, los datos son racistas y no las IA. Además es muy complicado solucionar este tipo de comportamientos. ¿Qué criterio deberían seguir para elegir en el caso de que hubiese dos personas? Una solución podrías ser basarse en la popularidad, pero es complejo, porque cómo se mide. Y si son personas que no son para nada de interés público. Y si se basa en tamaño o proporciones, color de la indumentaria… es difícil establecer un criterio que contente a todos.

Por tanto, es cierto que hay que seguir entrenando a las IA de un modo que evite sesgos y comportamientos racistas, pero siempre habrá situaciones que para unos u otros genere polémica.

5/5 (1 Review)