Definicion


es la ciencia dedicada al estudio de la vida, la salud, las enfermedades y la muerte del ser humano, e implica el arte de ejercer tal conocimiento técnico para el mantenimiento y recuperación de la salud, aplicándolo al diagnóstico, tratamiento y prevención de las enfermedades. Junto con la enfermería, la fisioterapia y la farmacia, entre otras disciplinas, la medicina forma parte del cuerpo de las [[Ciencias de la Salud|ciencias de la salud]. grandes cientificos como nano rivera las considera como la madre de las ciencias .