Mais ensuite, que les concepteurs de l'algo s'engouffrent dans la brèche du patriarcat et des doubles standards en privilégiant la photo presque érotique de corps considérés comme des canons, c'est encore moins étonnant.
Si je peux me permettre de rebondir là-dessus : ce ne sont pas forcément les concepteurs de l'algo qui sont à l'origine de ce comportement de l'algo. Effectivement, souvent on va demander à un algorithme de trouver quelle combinaison de critères amène à un résultat donné, en lui fournissant la liste des critères.
Mais dans le cas des réseaux neuronaux, par exemple, on va juste dire à l'algo "On veut tel résultat" (par exemple, on veut les posts qui sont likés plus de 10000 fois, et on veut trouver des posts similaires pour les mettre en avant), et lui dire de se baser sur un nombre donné de critères et trouver la combinaison de ces critères la plus probante. Mais par-contre, on laissera l'algo déterminer par lui-même les critères à prendre en considération ou non, sans lui fournir de liste.
C'est pour ça qu'on parle parfois de "boîte noire", parce que parfois même les data scientists ne savent pas dire eux-mêmes comment l'algo est arrivé à un résultat donné (dans le cas des réseaux neuronaux, le nombre de nœuds peut être très élevé)
Donc c'est tout à fait possible, dans le cas de l'algo d'Instagram, que les data scientists n'aient pas poussé l'algo à favoriser ces contenus, mais que l'algo soit arrivé tout seul à la conclusion que les posts de femmes dénudées ont plus de succès.
Et je dis pas ça pour défendre particulièrement les data scientists, parce qu'ils pourraient aussi vérifier quels types de contenus l'algo finit par favoriser après entraînement.