février 28, 2020 Par sexe2 0

Pourquoi TikTok crée-t-il des bulles de filtre en fonction de votre race?


Sur TikTok, tout n’est pas comme il semble. Interagissez avec les vidéos de danse et vous commencerez à voir plus de gens faire le Renegade. Si vous vous attardez sur un chien TikTok, cela vous donnera beaucoup de chiots.

Mais l’obsession algorithmique de TikTok de vous donner plus de contenu que vous pensez que vous aimerez a une conséquence inattendue: il a commencé à recommander aux gens de nouveaux comptes à suivre en fonction de l’apparence physique des personnes qui suivent déjà.

Cette semaine, Marc Faddoul, chercheur en intelligence artificielle à l’UC Berkeley School of Information, a découvert que TikTok lui recommandait des comptes de profil qui correspondaient à la même race, l’âge ou les traits du visage que ceux qu’il avait déjà suivis.

Il a créé un nouveau compte pour tester sa théorie et a suivi les personnes qu’il a trouvées sur sa page « For You ». La suite de l’histoire d’une femme noire a conduit à des recommandations pour trois autres femmes noires. Il devient étrangement spécifique – Faddoul a constaté que le fait de suivre un homme asiatique aux cheveux teints lui a donné plus d’hommes asiatiques aux cheveux teints, et il en est de même pour les hommes ayant un handicap visible.

TikTok nie utiliser des images de profil dans le cadre de son algorithme et affirme qu’il n’a pas pu reproduire les mêmes résultats dans ses tests. Mais l’application utilise le filtre collaboratif, où des recommandations sont faites en fonction de ce que les autres utilisateurs ont fait.

«Notre recommandation de compte à suivre est basée sur le comportement des utilisateurs», explique un porte-parole de TikTok. « Les utilisateurs qui suivent le compte A suivent également le compte B, donc si vous suivez A, vous voudrez probablement suivre B. » Et cela a le potentiel d’ajouter un biais inconscient à l’algorithme.

«La plate-forme est très orientée vers les aspects et, par conséquent, le filtrage collaboratif peut conduire à des résultats spécifiques aux aspects même si l’image de profil n’est pas utilisée par le système», explique Faddoul. L’algorithme de TikTok pensera que cela crée une expérience personnalisée pour vous, mais il s’agit en fait de construire une bulle de filtre – une chambre d’écho où vous ne voyez que le même genre de personnes avec peu de conscience des autres.

Pour le voir incorporé, vous devez accepter les cookies des réseaux sociaux. Ouvrez mes préférences en matière de cookies.

Ce n’est pas la première fois que l’algorithme de TikTok est accusé de parti pris racial. En octobre 2019, les utilisateurs de TikTok color ont demandé une meilleure représentation sur la page Pour vous, où les utilisateurs choisissent des conseils et de nouveaux contenus personnalisés. En janvier 2019, Whitney Phillips, professeur de communication et de rhétorique des médias en ligne à l’Université de Syracuse, a déclaré carte mère que le fonctionnement de TikTok pourrait inciter les utilisateurs à reproduire la communauté à laquelle ils s’identifient.

Pour tester les résultats, nous avons créé un nouveau compte, sommes allés à la page « Pour vous », balayé vers la gauche pour afficher un profil et suivi pour voir qui était recommandé. Le premier compte rendu est celui de KSI, un personnage Internet et rappeur avec 1,2 million de followers sur TikTok. Nous avons suivi KSI et les trois comptes recommandés suivants étaient un avec une photo de profil d’un homme effrayant assis trop loin de la caméra pour même deviner sa course, une image floue de ce à quoi ressemble un adolescent lors d’un festival et d’un voisin photo du visage d’un homme blanc. Tous les trois sont vérifiés, mais aucun ne semble particulièrement similaire.

Par la suite, des résultats similaires à ceux trouvés par Faddoul ont commencé à apparaître. Un compte créé par un propriétaire d’animaux pour son chien a produit des recommandations pour d’autres comptes de chiens. Plus tard, un jeune homme noir a conduit à des recommandations pour deux autres hommes noirs et à une caricature d’un homme noir. À la suite d’un homme de 87 ans, il a fait trois recommandations pour trois autres hommes plus âgés. Suivre une femme blanche aux cheveux bruns a conduit à trois autres femmes blanches aux cheveux bruns, puis finalement suivre un rapport avec l’Union Jack tandis que sa photo de profil a soulevé trois autres Union Jacks, dont une avec un trollface qui se chevauchent.

Si vous aimez un vieil homme sur TikTok, l’application suppose que vous adorerez regarder les autres. Mais cela va encore plus loin lorsque les préjugés raciaux sont pris en compte. «Les personnes issues de minorités sous-représentées qui n’ont pas nécessairement beaucoup de célébrités qui leur ressemblent auront plus de mal à obtenir des conseils», explique Faddoul.

Sur les réseaux sociaux, nous suivons les gens avec des opinions avec lesquelles nous sommes d’accord. Les algorithmes génèrent alors plus de contenu du même contenu, créant une séparation où vous ne voyez pas d’opinions différentes des vôtres, vous permettant d’oublier qu’elles existent. Dans une plate-forme hautement visuelle comme TikTok, cela s’applique à l’apparence d’une personne. Les résultats de Faddoul peuvent ne pas indiquer comment TikTok a l’intention de faire fonctionner son algorithme, mais montrent comment les biais des utilisateurs peuvent avoir causé ces bulles de filtre très spécifiques.

TikTok a sauvé l’attention des gens en utilisant les montagnes de données dont ils disposent sur le temps que les gens passent à regarder des vidéos et comment ils interagissent avec eux pour hyper-personnaliser l’utilisateur, explique Jevan Hutson, chercheur en interaction homme-machine à la faculté de droit de l’Université de Washington. Les données des utilisateurs du monde entier s’inscrivent dans un algorithme qui finit par encourager une séparation du contenu.

Cette extraction de données peut créer des modèles qui solidifient les hypothèses sur des races ou des ethnies particulières, dit Hutson. Il le compare aux applications de rencontres, où le biais inconscient de milliers d’utilisateurs créera une hypothèse dans l’algorithme des préférences raciales: Coffee Meets Bagel, par exemple, a rencontré la controverse lorsque les utilisateurs ont continué à obtenir des personnes recommandées de la même race même s’ils n’ont jamais indiqué de préférence raciale. Sur TikTok, lorsque l’application recommande plusieurs contenus et utilisateurs du même contenu, cela risque de conduire à la radicalisation et à la ségrégation.

« Je pense qu’il n’y a pas de consommation éthique sous surveillance », explique Hutson. Il est un utilisateur passionné de TikTok et estime que les gens sacrifient les données collectées par l’application pour obtenir le contenu qu’ils apprécient le plus.

Les données que TikTok obtient de ses millions de flux d’utilisateurs dans un cycle au cours duquel ils sont piégés et, même si vous faites un effort pour diversifier votre flux, les préjugés de tout le monde signifieront que l’algorithme continuera d’essayer de vous canaliser dans un bulle.

Maria Mellor est une écrivaine WIRED. Elle tweete de @Maria_mellor

Autres grandes histoires WIRED

🏙️ Une énorme arnaque Airbnb prend Londres

🚙 Envisagez-vous d’acheter une voiture électrique? Lisez ceci en premier

🍅 Pourquoi les tomates modernes ont-elles si mauvais goût?

📢 Comment fonctionnent les ruines en ruine

👉 Suivez WIRED sur pépiement, Instagram, Facebook et LinkedIn