Dictionnaire

féminisme

Définition "féminisme"

n.m.
  1. Doctrine qui vise à améliorer la situation sociale des femmes.
  2. Doctrine qui défend que les droits des femmes soient les mêmes que ceux des hommes.
Noms communs Noms propres