Je me demande combien d'années/décennies il faudra laisser passer pour qu'on arrête enfin d'entendre tout le monde dire que "avoir des enfants c'est la vraie vie".
Vraiment, j'entends ça partout, tout le temps, ça m'insupporte.
Je comprends parfaitement que des parents se sentent épanouis dans leur rôle et que ce rôle soit vraiment un accomplissement pour eux, mais c'est pas un incontournable dans la vie.
En même temps, tout est orienté parentalité tout le temps donc c'est pas trop étonnant (et ça rapporte beaucoup d'argent donc c'est pas près de changer)
Vraiment, j'entends ça partout, tout le temps, ça m'insupporte.
Je comprends parfaitement que des parents se sentent épanouis dans leur rôle et que ce rôle soit vraiment un accomplissement pour eux, mais c'est pas un incontournable dans la vie.
En même temps, tout est orienté parentalité tout le temps donc c'est pas trop étonnant (et ça rapporte beaucoup d'argent donc c'est pas près de changer)
