Je suis très partagée. D'un côté il faut effectivement encourager tout ce qui permet aux personnes de regarder leur corps avec bienveillance et sans tabou (mais j'aime pas le terme de désexualiser).
De l'autre, je trouve ça nul qu'il faille toujours mettre en avant le corps des femmes pour faire accepter les femmes dans la société. Il faut montrer les seins pour que la société arrête ses injonctions à la pudeur destinée spécifiquement aux femmes, le clito pour que la société accepte notre plaisir, il faut montrer le sang des règles pour que la société accepte notre douleur... bref, il faut s'exhiber pour s'imposer.
Dans l'article, la formulation "elle s’est rendu compte que les mentalités avaient grandement besoin d’évoluer" me gêne aussi. En gros, elle a été élevée dans un pays où la nudité est quelque chose de banal, ok. Juger un autre pays et une autre culture sur l'air de "qu'est-ce qu'ils sont attardés, faut les décoincer moi je vous dis", c'est au mieux insultant.