Associations avec le mot «Biologisme»
Wiktionnaire
BIOLOGISME, nom. (Sciences) Théorie scientiste selon laquelle la biologie, les conditions naturelles et organiques de la vie et de son évolution (gènes, hormones, neurotransmetteurs, lois darwiniennes) sont la base de la réalité physique et spirituelle de l’homme et de la société.
Sages paroles
Sois prudent avec les mots que tu choisis d’utiliser. Une fois qu’ils sont dit, ils ne peuvent qu’être pardonnés, mais pas oubliés.