J'ai vu un documentaire sur l'intelligence artificielle hier, et j'ai appris quelque chose que j'ignorais : pour que Chatgpt soit safe pour les utilisateurices, tous les textes venant de l'internet dont il est nourri doivent être d'abord modérés par des humains, afin que l'IA n'apprenne pas de mauvaises choses. Ce boulot est évidemment réalisé au Kenya, Chine ou Malaisie, par des gens payés une misère et qui se retrouvent donc à lire tout le pire produit sur internet (j'ai du me boucher les oreilles lorsqu'un ancien modérateur décrivait certaines choses qu'il a vu tellement c'était violent et choquant), sans recevoir aucun support psychologique. Beaucoup sont complètement traumatisés.
Du coup, je me demande si il ne faudrait pas au contraire exposer l'IA à ces contenus immondes et lui apprendre à les identifier afin que justement elle puisse faire ce boulot de modération plutôt que d'exploiter des gens pour le faire?
Dans le docu il y avait aussi un robot qui apprend par essai/erreur, sans qu'on le nourrisse de data mais on lui envoie des signaux "bien" et "pas bien" pour qu'il apprenne, donc c'est qu'il y a moyen d'enseigner à un programme "Tel contenu = bien, tel contenu = mal".
En tout cas ça m'a encore plus conforté dans ma décision de ne jamais utiliser Chatgpt, c'est horrible de penser aux centaines (milliers?) de travailleurses exploité.es et exposé.es à des contenus traumatisants afin qu'on puisse faire mumuse en sécurité.