Definición de educación física

La educación física es la que nos aporta mucha salud y bienestar en nuestra persona
nos ayuda con el crecimiento humano y nos da bienestar tanto físico como mental así como también el que se puede ver y el que podemos sentir. Como de la misma forma puede ser un excelente tiempo en el que nos podemos distraer un rato, también podremos conocer mas la naturaleza.
La educación física es la esencia de la vida la cual nos aporta mucha salud además podemos conocer nuestro cuerpo y saber darle la utilización adecuada sin hacerle daño al mismo



www.definicion.org/educacion-fisica