La place des femmes en France
Place et droits fondamentaux des femmes en France : des avancées mais ....
Comme dans tous les domaines, les femmes ont dû batailler pour obtenir leur juste place et les mêmes droits que les hommes.
Jamais acquis définitivement, freinés par des relents de masculinité et des arguments fallacieux, les droits des femmes sont justement revendiqués.