¿Qué es el imperialismo?

El imperialismo es la política de expansión (aumento, ampliación) y dominio territorial que un área, nación, ejerce sobre otras. Básicamente hablando, es la conquista, tomada e invasión de los territorios para ejercer su dominio sobre ellos. Era así que antiguamente ellos conseguían expandir sus límites, tomando posesión de tierras a la fuerza.

Esta política fue impulsada por los países centrales europeos especialmente y dirigida con foco en los continentes de África y Asia. Dichos continentes tenían países más frágiles, siendo justificado su dominio a través de teorías como el darwinismo social, creyendo ser superiores y asumiendo una labor positiva de desarrollo económico en las regiones. Sin embargo, en la práctica resultó en la explotación de recursos locales y uso de la mano de obra.

En los siglos XIX y XX, los europeos avanzaron de manera dilatada sobre los Estados africanos y en el sur de Asia los japoneses ejercieron mayor influencia sobre China y Corea del Norte. Asimismo, los norteamericanos ejercieron control en las Antillas y el Pacífico.

— 308 visualizaciones.

4 Comentarios ¿Cuál es el hemisferio de Inglaterra?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *