Dictionnaire
nazisme
Définition "nazisme"
n.m.
- Doctrine nationaliste et raciste fondée à l'origine par Hitler en 1923 ;fascisme augmenté de l'idée de supériorité raciale et d'élimination des minorités