¿El fin de la dominación masculina?

La división sexual del trabajo era bastante clara: el hombre era el dueño de la vida pública, el que tomaba todas las decisiones relevantes en la sociedad y, al interior de la familia, el sostén y el jefe al que la mujer debía atender.

Esta imagen de familia que se instaló a mediados del sigo XX podía tener bastante de fantasía, pero algo de eso efectivamente ocurría. Para dar sólo dos ejemplos, era muy raro ver a mujeres estudiando en las universidades y ni siquiera tenían derecho a votar.

Continuar leyendo