Dictionnaire
naturalisme
Définition "naturalisme"
n.m.
- École artistique et littéraire du XIXe siècle qui refusait d'idéaliser le réel pour s'en tenir à la réalité objective.
- Doctrine selon laquelle rien n'existe en dehors de la nature.
Autres
- Doctrine hippocratique considérant la nature comme une force éminemment prudente et prévoyante, et selon laquelle le traitement des maladies passe par la médication naturelle.