Anatomía

Término Definición
Anatomía
f. ciencia que estudia la estructura y forma de los seres vivos, los órganos que los constituyen y las relaciones que existen entre ellos.

Buscar términos

Buscar Términos dentro del Diccionario (puedes emplear expresiones regulares)