Au hasard du web, je suis tombée sur différents articles qui traitaient de la misogynie primaire de la médecine (occidentale s'entend).
L'idée me semble intéressante et je n'y avais jamais pensé. Effectivement, je ne vois pas en quoi la médecine s'étant développée au sein d'une société patriarcale (et étant développée par des hommes), aurait échappé au sexisme ambiant.
J'avais déjà entendu parler de médicaments testés uniquement sur des souris mâles et qui avait du être retirés du marché pour cause d'effets indésirables sur les femmes. Mais de là à penser que l'approche médicale-même était sexiste à la base... Aucun des articles lus ne m'a vraiment convaincue et je reste perplexe. Vous en pensez quoi? Vous avez des livres/sources à me conseiller pour me faire ma propre idée?
L'idée me semble intéressante et je n'y avais jamais pensé. Effectivement, je ne vois pas en quoi la médecine s'étant développée au sein d'une société patriarcale (et étant développée par des hommes), aurait échappé au sexisme ambiant.
J'avais déjà entendu parler de médicaments testés uniquement sur des souris mâles et qui avait du être retirés du marché pour cause d'effets indésirables sur les femmes. Mais de là à penser que l'approche médicale-même était sexiste à la base... Aucun des articles lus ne m'a vraiment convaincue et je reste perplexe. Vous en pensez quoi? Vous avez des livres/sources à me conseiller pour me faire ma propre idée?