Au hasard du web, je suis tombée sur différents articles qui traitaient de la misogynie primaire de la médecine (occidentale s'entend).
L'idée me semble intéressante et je n'y avais jamais pensé. Effectivement, je ne vois pas en quoi la médecine s'étant développée au sein d'une société patriarcale (et étant développée par des hommes), aurait échappé au sexisme ambiant.
J'avais déjà entendu parler de médicaments testés uniquement sur des souris mâles et qui avait du être retirés du marché pour cause d'effets indésirables sur les femmes. Mais de là à penser que l'approche médicale-même était sexiste à la base... Aucun des articles lus ne m'a vraiment convaincue et je reste perplexe. Vous en pensez quoi? Vous avez des livres/sources à me conseiller pour me faire ma propre idée?
L'idée me semble intéressante et je n'y avais jamais pensé. Effectivement, je ne vois pas en quoi la médecine s'étant développée au sein d'une société patriarcale (et étant développée par des hommes), aurait échappé au sexisme ambiant.
J'avais déjà entendu parler de médicaments testés uniquement sur des souris mâles et qui avait du être retirés du marché pour cause d'effets indésirables sur les femmes. Mais de là à penser que l'approche médicale-même était sexiste à la base... Aucun des articles lus ne m'a vraiment convaincue et je reste perplexe. Vous en pensez quoi? Vous avez des livres/sources à me conseiller pour me faire ma propre idée?


Je n'aurais jamais tenu la ... euh... (comment qualifier ça? Disons discussion à défaut de vaste exemple de la connerie humaine) jusque là.
Et qu'on a voulu les retirer du marché lorsqu'on s'est rendu compte que les femmes commençaient à les utiliser dans des buts purement récréatifs ! 
). Le médecin jugera la douleur de la patiente en fonction de ce qu'il verra, de ce qu'il connait et de la description qui lui sera donnée, pas en se l'imaginant. Et c'est pareil pour tous les maux.