Tout le monde aspire à trouver un travail, et de préférence, celui qui permet de développer ses compétences et de s’épanouir. Le fait est que depuis quelque temps, leur travail fait déprimer de plus en plus de personnes. Cette affirmation provient des résultats du sondage Odoxa, mené pour le:compte du laboratoire Lundbeck au Danemark. Il semble bien que sur les 28% des Français qui sont passés par des périodes de dépression, 56% le sont à cause de leurs activités professionnelles. En tout cas, celles-ci ont aggravé leur état. Alors, est-ce que le travail fait déprimer réellement ?
Le travail fait déprimer : les raisons
Si le travail fait déprimer un aussi grand nombre de personnes, c’est soit à cause de la pression du patron, un volume de tâches trop important, un environnement malsain ou du harcèlement, soit en raison d’un manager toxique. Et malheureusement, ce genre de situations n’est pas rare de nos jours, en dépit des améliorations apportées aux lois concernant le milieu de vie professionnel. On comprend facilement pourquoi un si grand nombre de Français trouvent que leur travail les fait déprimer. Du coup, le bureau ou le lieu de travail finit pour eux par être une source permanente de stress. Pour sortir de ce cercle, les salariés doivent apprendre à déstresser au travail. Mais si l’environnement de travail reste dépressif, le burn-out n’est pas bien loin.
Le travail fait déprimer : la triste réalité
Alors que le travail devrait permettre un épanouissement intellectuel, professionnel et personnel, il est devenu pour beaucoup nuisible. Le travail fait déprimer, car les salariés ne sont pas valorisés, ils sont souvent rabaissés et critiqués par leurs employeurs, en quête de plus de rentabilité et d’optimisation, sans se soucier de faire preuve d’humanité. Ce qui est encore plus grave, c’est que ce phénomène est tu au sein des entreprises. Le loi du silence règne lorsqu’il s’agit de la dépression subie. Le travail fait déprimer mais la dépression doit être soignée puisque c’est une maladie.