Dans l’histoire, les femmes ont souvent été considérées comme inférieures aux hommes. C’est ce qui explique pourquoi elles ont été victimes de toutes sortes de violence et d’injustices.
Par contre, il y a toujours eu des femmes qui ont lutté pour changer les choses. On les appelle des féministes. Ainsi, le féminisme, c’est vouloir que les femmes aient les mêmes droits que les hommes.