Diritto positivo

Diritto positivo

È il diritto elaborato ed emanato dal legittimo organo legislativo dello Stato. Si contrappone al diritto naturale [vedi].
In quanto manifestazione della volontà di un legislatore, l’espressione designa il diritto effettivamente in vigore in un dato ordinamento e in un dato contesto storico [vedi Positivismo giuridico].