Dictionnaire

naturalisme

Définition "naturalisme"

n.m.
  1. École artistique et littéraire du XIXe siècle qui refusait d'idéaliser le réel pour s'en tenir à la réalité objective.
  2. Doctrine selon laquelle rien n'existe en dehors de la nature.
Autres
  • Doctrine hippocratique considérant la nature comme une force éminemment prudente et prévoyante, et selon laquelle le traitement des maladies passe par la médication naturelle.

Synonyme "naturalisme"

n.m.

naturisme, réalisme, vérisme

Noms communs Noms propres