Diritto positivo

Diritto positivo

È il diritto elaborato ed emanato dal legittimo organo legislativo dello Stato. Si contrappone al diritto naturale.
In quanto manifestazione della volontà di un legislatore, l’espressione designa il diritto effettivamente in vigore in un dato ordinamento e in un dato contesto storico [vedi Giuspositivismo].