Dictionnaire

carie dentaire

Définition "carie dentaire"

n.f.
  • Affection qui détruit la dent vers l'intérieur.
Noms communs Noms propres