Je ne comprends pas cette culture de l'argent roi. Même si je comprends tout à fait pourquoi l'argent existe, je n'arrive pas à comprendre pourquoi la société lui a donné ce rôle, car il est douloureusement évident que ça ne nous apporte rien de positif et que ça rend acceptable les pires horreurs: exploitation humaine (légale ou non), racket gouvernemental (le gouvernement qui coupe les vivres d'à peu près tout ce qui permet à la société de fonctionner), dictatures (bah oui, ça coûte moins cher de piller acheter dans un pays qui fait caca sur les droits humains), inégalités, consumérisme, pollution, néo-colonialisme, guerre, mal-être sociétal, génocides, démagogie médiatique, égoïsme, oligarchie, corruption, etc... je pourrais continuer encore longtemps.
En fait, il y a tellement de trucs qui n'ont que des inconvénients en dehors de leur rentabilité économique, et à l'inverse, tellement de choses qui ont pour seul inconvénient de ne pas rapporter assez de pognon. Bref, j'arrive pas à comprendre qu'on fasse comme si l'argent était comestible et qu'on attende qu'il soit trop tard pour se rendre compte que non