Associations avec le mot «Féminiser»

Wiktionnaire

FÉMINISER, verbe. (Grammaire) Faire du genre féminin.
FÉMINISER, verbe. (Figuré) Prendre un extérieur féminin.
FÉMINISER, verbe. (Par extension) Prendre le caractère féminin.

Sages paroles

Tel qui croit tout savoir ne sait rien que des mots.
Proverbe français