Définition

₪ Qu’est-ce qu’un contrat de travail ?
C’est une convention par laquelle une personne, le salarié, s’engage à mettre son activité à la disposition d’une autre personne, l’employeur, qui lui verse en contrepartie un salaire et a autorité sur elle.