Dictionnaire

organicisme

Définition "organicisme"

n.m.
  1. Théorie selon laquelle la vie résulte de l'organisation des différents organes et non des organes eux-mêmes.
  2. Théorie qui rattache toute maladie à la lésion d'un organe.
  3. Doctrine médicale selon laquelle toutes les maladies ont pour causes des lésions organiques.

Synonyme "organicisme"

n.m.

vitalisme

Noms communs Noms propres