Definición de la Educación Física

La educación física es una disciplina pedagógica que basa su intervención en el movimiento corporal, para estructurar primero y desarrollar después, de forma integral y armónica, las capacidades físicas, afectivas y cognitivas de la persona, con la finalidad de mejorar la calidad de la participación humana en los distintos ámbitos de la vida, como son el familiar, el social y el productivo. Actualmente, la educación física es una necesidad individual (más…)