Dictionnaire

anatomie

Définition "anatomie"

n.f.
  1. Étude de la forme des êtres organisés et des organes qui les constituent.
  2. Formes extérieures du corps, vues sous l'angle esthétique.
Noms communs Noms propres