Hello j'avais une question à poser. Ça fait plusieurs fois que dans des débats on me dit "mais regarde en médecine ya de plus en plus de femmes" (dit par une nana en médecine d'ailleurs qui dit que le sexisme n'existe pas car sa directrice est une femme). Bon j'avais déjà vu que même si en médecine ça se féminisait (ce qui est mal vu par un certain sénateur......), pour commencer, le plafond de verre existait toujours. C'est à dire que les femmes sont plus nombreuses en fac mais elles sont nettement mois à la tête de services ou à des postes de décision/directeurs/conseils d'ordre des médecins (dont il suffit de regarder la liste des membres pour avoir une idée, conseil par ailleurs totalement inefficace lors d'affaire de viols de patientes), et elles se colletinent plus souvent les postes administratifs car ils ont des horaires plus stables et que les femmes qui sont mères peuvent ainsi gérer leur vie domestique aussi (le jour où les papas aideront ça changera peut être).
Sans compter le machisme hyper violent qui existe dans ce milieu (l'affaire de la fresque, les bizutages, etc), et dont on considère toujours que ça fait partie "de la culture". Donc féminisation mes fesses.
Mais bon à titre plus personnel aussi je me posais la question de la désertification du métier. Je me dis que ça serait quand même ballot que ce soit le hasard comme par hasard que la profession se féminise pile au moment où il y a un grave problème de désertification de la profession. Je me dis que s'il y a plus de femmes, ce n'est pas grâce à des années de lutte contre le sexisme dans ce milieu (cf premier paragraphe) mais plutôt tout simplement parce que les hommes sont moins nombreux et que les conditions de cette profession se sont beaucoup dégradées (et non pas l'inverse comme certains sénateurs ont tendance à le dire c'est à dire que la profession se dégrade parce qu'il ya des femmes, et les femmes elles ruinent tout).
Est-ce que vous auriez des choses à lire sur ce sujet? peut-être des parallèles avec d'autres professions comme dans l'enseignement ou dans le milieu infirmier je ne sais pas?
Sans compter le machisme hyper violent qui existe dans ce milieu (l'affaire de la fresque, les bizutages, etc), et dont on considère toujours que ça fait partie "de la culture". Donc féminisation mes fesses.
Mais bon à titre plus personnel aussi je me posais la question de la désertification du métier. Je me dis que ça serait quand même ballot que ce soit le hasard comme par hasard que la profession se féminise pile au moment où il y a un grave problème de désertification de la profession. Je me dis que s'il y a plus de femmes, ce n'est pas grâce à des années de lutte contre le sexisme dans ce milieu (cf premier paragraphe) mais plutôt tout simplement parce que les hommes sont moins nombreux et que les conditions de cette profession se sont beaucoup dégradées (et non pas l'inverse comme certains sénateurs ont tendance à le dire c'est à dire que la profession se dégrade parce qu'il ya des femmes, et les femmes elles ruinent tout).
Est-ce que vous auriez des choses à lire sur ce sujet? peut-être des parallèles avec d'autres professions comme dans l'enseignement ou dans le milieu infirmier je ne sais pas?




En plus de ça, tout le monde la blâme car elle a déjà un copain, et le mec, personne ne lui dit rien ! C'est quand même honteux, cette série est majoritairement regardée par des petites filles !!!
"
et quand tu oses souligner le comportement problématique de Damon envers les femmes, tout ce que tu récoltes c'est " bah oui c'est un vampire!!!" Et en revanche vive le slut-shaming sur Katherine qui agit presque comme Damon. Sans compté les sous-entendus de viol... Non reconnu par la production...
et pas une seule fois Elena se pose des questions sur la place de son physique dans ses relations avec Stefan & Damon.