Dictionnaire

laisser-faire

Définition "laisser-faire"

n.m.
  1. Pratique consistant à ne pas intervenir dans les arbitrages économiques.
  2. École de pensée qui prône la primauté de l'individu sur la société et les systèmes grégaires.
Noms communs Noms propres