Dictionnaire
organicisme
Définition "organicisme"
n.m.
- Théorie selon laquelle la vie résulte de l'organisation des différents organes et non des organes eux-mêmes.
- Théorie qui rattache toute maladie à la lésion d'un organe.
- Doctrine médicale selon laquelle toutes les maladies ont pour causes des lésions organiques.