¿Qué es el imperialismo?

El imperialismo es la política de expansión (aumento, ampliación) y dominio territorial que un área, nación, ejerce sobre otras. Básicamente hablando, es la conquista, tomada e invasión de los territorios para ejercer su dominio sobre ellos. Era así que antiguamente ellos conseguían expandir sus límites, tomando posesión de tierras a la fuerza.

Esta política fue impulsada por los países centrales europeos especialmente y dirigida con foco en los continentes de África y Asia. Dichos continentes tenían países más frágiles, siendo justificado su dominio a través de teorías como el darwinismo social, creyendo ser superiores y asumiendo una labor positiva de desarrollo económico en las regiones. Sin embargo, en la práctica resultó en la explotación de recursos locales y uso de la mano de obra.

En los siglos XIX y XX, los europeos avanzaron de manera dilatada sobre los Estados africanos y en el sur de Asia los japoneses ejercieron mayor influencia sobre China y Corea del Norte. Asimismo, los norteamericanos ejercieron control en las Antillas y el Pacífico.

— 302 visualizaciones.

3 Comentarios ¿Por qué la expansión de las potencias imperialistas se desarrolló en el siglo XIX?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *