Des études ont révélé que le travail est vital pour que l’on se sente bien sur le plan physique et mental.