Dictionnaire

carier

Définition "carier"

n.f.
  1. Destruction des tissus osseux.
  2. Affection qui détruit la dent vers l'intérieur.
  3. Maladie des graines céréales dans laquelle la farine est remplacée par une poussière résultant de l'activité d’un champignon du genre Uredo.
adj.
  • Atteint par la carie.
Autres
  • Dégradation du tissu osseux, aboutissant à son ramollissement et à sa destruction.
v. trans.
  • Gâter par la carie.
v. pron.
  • Se gâter par une carie (pour une dent)
Noms communs Noms propres