Androcentrismo
El androcentrismo es una perspectiva que coloca al hombre en el centro de la visión del mundo y de las relaciones sociales, construyendo la realidad desde un punto de vista masculino. Esta postura implica que los hombres son considerados el referente principal a nivel histórico, social y cultural, mientras que las mujeres suelen ser marginadas o invisibilizadas1.
El androcentrismo puede manifestarse en diversas prácticas y condiciones que favorecen al hombre en detrimento de la mujer, y está vinculado al patriarcado y al machismo. Puede asociarse con problemáticas como la violencia de género y la brecha salarial que favorece a los hombres1.
En respuesta a esta visión, el movimiento feminista ha ganado fuerza en los últimos años, exigiendo igualdad de derechos y oportunidades y desafiando el dominio masculino. Esto incluye la promoción del lenguaje inclusivo y la denuncia de la discriminación de género en diferentes ámbitos1.
1
definicion.de
2
elfeminismo.com
3
bing.com
4
dle.rae.es