Após a Segunda Guerra Mundial, as mulheres mudaram seu papel na sociedade, ou melhor, ampliaram. Elas saíram da administração e cuidado de seus lares, passando a ocupar postos de trabalhos. É evidente que alguns setores da economia ainda estão impregnados por dogmas machistas, mas é fato que as mulheres estão ganhando cada vez mais oportunidades. […]