Dictionnaire

anatomie

Définition "anatomie"

n.f.
  1. Étude de la forme des êtres organisés et des organes qui les constituent.
  2. Corps d'un être humain
  3. Formes extérieures du corps, vues sous l'angle esthétique.
Noms communs Noms propres