Contrat de travail : définition et lois

Le contrat de travail en France est un document déterminant en matière de droit du travail. Et pour cause, un contrat de travail en CDD ou CDI formalise les conditions et liens entre un salarié et son employeur. Différentes règles encadrent la rédaction d’un contrat de travail. Voilà pourquoi les salariés comme les employeurs ont tout intérêt à s’informer en détail avant la signature d’un contrat de travail.