edit : par contre, je rejoins @skippy01 sur le fait que le sexisme vient aussi des hommes qui ont pensé youtube. Pas forcément sur l’algorithme, mais sur le fait que le système de modération fonctionne mal, par rapport aux insultes et menaces que se prennent les femmes dans la figure. Là, je me demande pourquoi ça fonctionne encore aussi mal. C'est pas comme si y avait pas des années de tests, depuis le temps.
On peut en effet imaginer que s'il y avait plus de femmes dans le monde de la tech et plus de femmes à la direction de YouTube, la question du harcèlement des femmes sur la plateforme serait prise plus au sérieux.
Mais je n'en suis honnêtement pas convaincue à 100%. Pour comprendre pourquoi la modération fonctionne aussi mal, il faut comprendre que ce qui drive aujourd'hui les décisions de YouTube, c'est avant tout le profit, et que les profits de YouTube sont essentiellement générés par les revenus publicitaires. Donc YouTube veut vous exposer à un max de publicité, et pour ça ils vont favoriser les contenus qui :
1. génèrent beaucoup de trafic
2. auxquels les annonceurs veulent bien être associés (si vous êtes une marque et qu'on voit votre bannière publicitaire apparaître au bas d'un vidéo qui défend, au hasard, le négationnisme, ça la fout quand même mal pour votre image)
3. sont légalement acceptés dans le pays où ils sont diffusés
Du coup, la modération n'est pas complètement neutre, et va avoir la main lourde avec les contenus auxquels les annonceurs ne veulent pas être associés, mais la main plus légère avec les contenus qui génèrent beaucoup de trafic.
Donc au final, c'est tout un jeu de balance qui se met en place. La question n'est plus "le contenu est-il raciste/misogyne/homophobe?", mais plutôt "le contenu est-il si raciste/misogyne/homophobe que ça ne passera pas auprès d'une large partie de la population au point que les annonceurs refuseront de s'y associer ? Ou bien est-ce un niveau de racisme/sexisme/homophobie globalement accepté par la société, et donc on ne craint rien du côté des annonceurs, mais comme c'est incendiaire, ça va générer du trafic ?"
C'est ce qui fait par exemple que Facebook a joué un rôle non négligeable dans la propagation de la haine contre les Rohingyas, alors que théoriquement les contenus racistes sont interdits sur la plateforme et devraient donc être modérés.