Escuelapedia.com Basico Qué es la anatomía – Definición

Avisos google

Qué es la anatomía – Definición

leccion de anatomia
La anatomía es una ciencia que estudia la estructura física de los seres vivos. Los órganos internos y externos, sus interacciones, el funcionamiento, la ubicación y el diseño son los principales aspectos estudiados por la anatomía.

Ya la Anatomía Humana se centra en el estudio del cuerpo humano y es considerada una de las ciencias básicas del ámbito médico.

La anatomía es de suma importancia para la medicina. El conocimiento detallado del cuerpo humano, proporciona diagnósticos médicos efectivos y el tratamiento adecuado para resolver un problema en el ser vivo. Por lo tanto, esta ciencia es de gran valor para el mantenimiento de la salud y la vida de los seres humanos.

Podemos decir que la anatomía surgió en la antigüedad, más precisamente en el antiguo Egipto. Los momificadores abrían los cadáveres de los faraones con el fin de llevar a cabo el proceso de momificación. Al abrir los cuerpos para extraer los órganos internos, estos momificadores pasaron a conocer en detalle los órganos y otras estructuras del cuerpo humano.

Tal vez la obra de arte que representa más fehacientemente esta ciencia sea La Lección de Anatomía del Dr. Tulp, ejemplar pictórico del holandés Rembrandt. Pintado en 1632, el cuadro muestra una lección de anatomía con un grupo de cirujanos.

Datos sobre el articulo
Redacción
Opiniones del artículo
Otras materias disponibles
Recomendado