DICTIONNAIRE DE DROIT DU TRAVAIL

Me Philippe Junior Volmar, Avocat au Barreau de Port-au-Prince, Enseignant en droit social, Coordonnateur de l’Unité Juridique à l’OFATMA, Enseignant de droit du travail à l’École du Barreau de l’Ordre des Avocats de Port-au-Prince
Droit positif

Définition de Droit positif

Branche du droit qui se réfère à l’ensemble des lois organiques, des loi ordinaires, des décrets et les règlements administratifs en vigueur dans une société à un moment donné. Il s’agit du droit tel qu’il est énoncé et appliqué dans la réalité, par opposition au droit naturel. Le droit positif est contraignant et prescriptif, ce qui signifie qu’il dicte les règles légales et les obligations auxquelles les employeurs, les employés et les institutions doivent se conformer.

Scroll to Top