Heutzutage wird im „Westen“ viel von Frauen erwartet: Karriere, Familie, Haushalt und mehr soll sie unter Hut bringen. Ist dies aber was eine Frau wirklich will? Oder ist dies eher entgegen ihrer Natur?