Robbie
Die Rolle der Frauen hat sich in den letzten 50 Jahren ziemlich verändert, zum Beispiel waren Frauen im 20. Jahrhundert nicht dafür bekannt, hochrangige Jobs zu haben oder überhaupt Vollzeit zu arbeiten. Sie waren diejenigen, die kochen, putzen und sich um die Kinder kümmern. Frauen haben erst in den 1920er – 1930er Jahren wirklich bezahlte Jobs. Manche Leute sagen, dass sich im Laufe der Jahre einige Veränderungen ergeben haben, vielleicht nicht zum Besseren, zB müssen Frauen heutzutage arbeiten, anstatt zu Hause bei den Kindern zu bleiben, wegen Finanzen usw.
Hoffe, das hat geholfen :)