Branche du droit qui se réfère à l’ensemble des lois organiques, des loi ordinaires, des décrets et les règlements administratifs en vigueur dans une société à un moment donné. Il s’agit du droit tel qu’il est énoncé et appliqué dans la réalité, par opposition au droit naturel. Le droit positif est contraignant et prescriptif, ce qui signifie qu’il dicte les règles légales et les obligations auxquelles les employeurs, les employés et les institutions doivent se conformer.
DICTIONNAIRE DE DROIT DU TRAVAIL
Me Philippe Junior Volmar, Avocat au Barreau de Port-au-Prince, Enseignant en droit social, Coordonnateur de l’Unité Juridique à l’OFATMA, Enseignant de droit du travail à l’École du Barreau de l’Ordre des Avocats de Port-au-Prince
Droit positif
Définition de Droit positif
en partenariat avec
Centre Haïtien de Recherche en Sciences Sociales (CHARESSO)
en partenariat avec
Centre Haïtien de Recherche en Sciences Sociales (CHARESSO)