@Quichette : A 99% sûre que c'est un robot informatique qui applique un algorithme automatisée avec des décisions plus ou moins arbitraires (présence de mots-clefs, etc), avec un résultat du style "vidéo à XX% sensible".
J'ai travaillé dans une boîte qui mettait au point un algo pour reconnaître les pages & les vidéos avec des contenus "sensibles" (scène de violences par exemple, mais aussi scène de sexe). J'ai participé à cet algo (j'ai même été en partie engagée pour bosser sur ça). Et je ne suis même pas étonnée. Techniquement c'est SUPER dur de faire reconnaître A COUP SÛR des images et des sons à un ordinateur (avec une très très faible marge d'erreur), parce que ça dépend de beaucoup de facteurs, notamment la nature du son . Par exemple, un coup de feu c'est simple, c'est précis, net (et pourtant j'avais une marge d'erreur d'un bon 8%). Le bruit d'un orgasme, c'est vachement plus dur à définir..(ça n'a pas de sens d'essayer de le définir d'ailleurs !) Du coup, un algo informatique -de mon point de vue-, c'est pas demain la veille que ça claquera dans les doigts et hop ! tout le contenu réellement problématique est identifié et le reste on laisse tranquille. S'il y a automatisation, il y a FORCEMENT besoin d'une vérification manuelle quelque part. Tout ça pour dire que techniquement, même chez Google et leurs labo de ouf pas secret du tout, l'identification et l'analyse automatique d'une scène dans une vidéo, c'est loin d'être une science prête et fonctionnelle (loiiiiiiiiin de là, très très très loin de là). (J'ai quitté cette boîte depuis longtemps).
Bref du coup, faut leur faire plein de vues à ces vidéos démonétisées. Ceux qui ont le pouvoir, ceux sont les annonceurs. S'ils se disent "hm hm en fait il y a plein de vue là dessus, et s'il y a plein de vues alors ça me fait du pognon et tant pis si ça parle de cul !", peut-être, PEUT-ETRE Youtube (& consort) assoupliront leurs algo.