Pour suivre ce que vous dites @Tzig0ne et @MissMachine , je trouve aussi qu'on commence un peu à appeler tout et n'importe quoi "Intelligence Artificielle". J'avoue ne pas connaitre la définition exacte du terme, mais j'associe le terme avec la notion d'apprentissage. Du coup le raccourci "algorithme" = "IA" me gène beaucoup. Mais il n'empêche tout de même que les deux (IA ou algorithme) peuvent être biaisés.
Si on reprends l'exemple de parcoursup (après tout il est tellement populaire), l'algorithme global a été publié, mais c'est loin d'être le cas, à ma connaissance, des versions locales à chaque établissement. Et c'est là que le biais le plus important peut être attendu : chaque établissement peut paramétrer son algorithme comme il veut, adapter les pondérations à apporter à chaque critère. Ce qui veut dire qu'un établissement peut tout à fait décider, par exemple, de monter l'importance du lieu d'où vient le candidat, ce qui aurait une forte probabilité de privilégier certains lieux géographiques par rapport à d'autres. Avant parcoursup (mes souvenir ont 15 ans donc si je dis des bêtises dsl), on avait bien avant la notion de sectorisation, mais elle avait le mérite d'être (hors magouille et arrangement) claire et globale : votre secteur vous assurait une place dans certaines formations en accord avec votre cursus. Je simplifie complément mais les règles sont faciles à comprendre pour un néophyte en informatique. Aujourd'hui, il faut comprendre l'algorithme global (le document officiel est dispo, c'est par là) et en plus arriver à accéder aux paramètres de l'établissement (et si vous avez plusieurs choix, combinez pour plusieurs établissements, bonne chance ). Pour un néophyte ça me parait bien complexe (alors qu'en soit l'algorithme est simple).
Du coup non seulement le biais est différent par établissement, mais en plus il n'est pas libre d'accès.
Pour le cas des IA, le problème est différent, c'est celui l'entrainement. Une IA apprends avec des données, et celles-ci sont en règle générales produites par notre bonne vieille société ! Donc forcément, notre IA sera colorée par nos bon vieux travers. L'exemple des IA qui tweetent virant "nazi" est un exemple criant du problème : l'IA, et donc nous qui l'utilisons, sommes intimement liés aux données d'apprentissage. Dans un monde où on ne sait pas comment éviter les fake news, où on n'arrive pas toujours à discerner si une image est vrai ou non, je vous laisse imaginer ce que ça peut donner. De plus, autant les algorithmes simples comme parcoursup on peut prédire leur résultats pour peut qu'on ait toutes les informations, autant pour l'IA je ne vois pas comment prédire son comportement. Et c'est ce que je trouve le plus flippant (et on ne parlera même pas de ce qui se passe en Chine en ce moment). Je vais ajouter le livre de "Cathy O'Neil" dans ma liste, ça m'a l'air fort intéressant.
Si on reprends l'exemple de parcoursup (après tout il est tellement populaire), l'algorithme global a été publié, mais c'est loin d'être le cas, à ma connaissance, des versions locales à chaque établissement. Et c'est là que le biais le plus important peut être attendu : chaque établissement peut paramétrer son algorithme comme il veut, adapter les pondérations à apporter à chaque critère. Ce qui veut dire qu'un établissement peut tout à fait décider, par exemple, de monter l'importance du lieu d'où vient le candidat, ce qui aurait une forte probabilité de privilégier certains lieux géographiques par rapport à d'autres. Avant parcoursup (mes souvenir ont 15 ans donc si je dis des bêtises dsl), on avait bien avant la notion de sectorisation, mais elle avait le mérite d'être (hors magouille et arrangement) claire et globale : votre secteur vous assurait une place dans certaines formations en accord avec votre cursus. Je simplifie complément mais les règles sont faciles à comprendre pour un néophyte en informatique. Aujourd'hui, il faut comprendre l'algorithme global (le document officiel est dispo, c'est par là) et en plus arriver à accéder aux paramètres de l'établissement (et si vous avez plusieurs choix, combinez pour plusieurs établissements, bonne chance ). Pour un néophyte ça me parait bien complexe (alors qu'en soit l'algorithme est simple).
Du coup non seulement le biais est différent par établissement, mais en plus il n'est pas libre d'accès.
Pour le cas des IA, le problème est différent, c'est celui l'entrainement. Une IA apprends avec des données, et celles-ci sont en règle générales produites par notre bonne vieille société ! Donc forcément, notre IA sera colorée par nos bon vieux travers. L'exemple des IA qui tweetent virant "nazi" est un exemple criant du problème : l'IA, et donc nous qui l'utilisons, sommes intimement liés aux données d'apprentissage. Dans un monde où on ne sait pas comment éviter les fake news, où on n'arrive pas toujours à discerner si une image est vrai ou non, je vous laisse imaginer ce que ça peut donner. De plus, autant les algorithmes simples comme parcoursup on peut prédire leur résultats pour peut qu'on ait toutes les informations, autant pour l'IA je ne vois pas comment prédire son comportement. Et c'est ce que je trouve le plus flippant (et on ne parlera même pas de ce qui se passe en Chine en ce moment). Je vais ajouter le livre de "Cathy O'Neil" dans ma liste, ça m'a l'air fort intéressant.
Dernière édition :