Definición del Derecho

En un sentido amplio y absoluto definimos “El Derecho” como: “El conjunto de normas tanto ético-morales como jurídicas que regulan las diferentes actividades de los individuos que viven en sociedad, impuestas de forma coactiva o imperativas, a través de una autoridad soberana, de carácter político, que va a permitir la convivencia del hombre en sociedad de forma organizada, en cualquier momento o lugar determinado”. Hans Kelsen (1997).

Se puede decir entonces que (más…)