Definición y Que Es
Feminismo

El feminismo es una ideología o sistema de pensamiento que busca dar a las mujeres o al género femenino en sí, su lugar en una sociedad tradicionalmente dominada por el hombre, la idea principal que busca rescatar el feminismo es que las mujeres tienen los mismos derechos que los hombres y el mismo valor que estos en la sociedad.

Feminismo

El feminismo es un fenómeno muy actual, ya que, su inclusión en la sociedad surgió a finales del siglo XIX en distintas partes del mundo, éste ha logrado a través de los años grandes avances para las mujeres como, por ejemplo; el derecho a votar (el cual había sido prohibido para ellas, pues los hombres no las consideraban personas de tanta importancia como para tomar una decisión tan relevante en el futuro de un país), derecho a trabajar, entre otros. Aun así, en muchos países del mundo como en las naciones árabes, las mujeres aún no han ganado los derechos que tanto defienden los grupos feministas.

De igual manera, aun cuando en los países primermundistas las mujeres gozan de los mismos derechos de los hombres, los grupos feministas se encargan de defender el respeto de ellas, así como de su integridad física y mental, ya que en la sociedad, aun cuando las ideas han avanzado en ciertos aspectos, las mujeres sufren de muchos abusos por parte de los hombre, desde los casos en los que éstas reciben maltrato físico o mental por parte de su pareja hasta en los casos en los que llegan a ser abusadas sexualmente, en éste último, los grupos feministas buscan defender tanto a las mujeres como a las niñas.