Escuelapedia.com Basico La historia de Alemania

Avisos google

La historia de Alemania

Alemania
La región de Alemania fue originalmente habitada por tribus ugrofinesas y luego por los celtas. Sin embargo, estos últimos fueron expulsados a regiones occidentales por las tribus germánicas (bárbaros) que llegaron al territorio alrededor del año 800 a.C.

El estado más poderoso, fundado en la Galia por los pueblos germánicos a inicios de la Edad Media, el Reino de los francos, fue erigido por Carlomagno.

Después del Tratado de Verdún (845) pasó a existir el Reino de Germania. Independiente, este reino tuvo una política de monarquía electiva.

En el 936, el emperador germánico Otón el Grande, conquistó regiones de Italia, aumentando su influencia con el estado papal. Usó este poder para ser coronado como emperador. La Alemania llegó a ser llamada de sacro Imperio Romano Germánico.

La autoridad de los emperadores alemanes, en la Edad Media, sólo fue simbólica, porque Alemania se había convertido en una especie de estado feudal. Los señores feudales tenían el poder de hecho en la región, decidiendo sobre las acciones políticas, jurídicas y económicas en sus feudos.

En el siglo XVI, durante la reforma protestante, Alemania fue sacudida por conflictos religiosos. Su territorio fue dividido prácticamente en dos partes: norte de Alemania (protestante) y sur de Alemania (católico).

A principios del siglo XIX la región fue conquistada por los franceses bajo el mando de Napoleón Bonaparte. El imperio romano fue suprimido y en su lugar se creó la Confederación del Rin, que fue disuelta por el Congreso de Viena y reconstituido en nuevas bases con el nombre de la Confederación Germánica (1815).

Al final del siglo XIX Alemania fue unificada, formando un Estado, con la actuación diplomática del canciller diplomática Otto von Bismarck.

Entre 1914 y 1918, Alemania, conjuntamente con el Imperio Austro-Húngaro e Italia, formaron la Triple Alianza en la I Guerra Mundial. Derrotada, Alemania quedó condenada, por el Tratado de Versalles, a pagar por los daños de la guerra, pérdida de territorios y reducción de sus fuerzas armadas.

En la década de 1930, Hitler asumió el poder en Alemania y desplegó el nazismo. Invirtiendo mucho en militarismo, condujo a Alemania, en 1939, a la II Guerra Mundial, junto con Italia y Japón. Una vez más derrotada, Alemania queda devastada en el conflicto.

Después de la guerra, Alemania fue dividida en dos partes: Alemania Occidental (capitalista) y Oriental (socialista). La reunificación tuvo lugar sólo en 1990, con la caída del muro de Berlín y la crisis del socialismo.

Actualmente, Alemania es un país democrático con una economía fuerte. Miembro de la Comunidad Europea, es uno de los países más desarrollados del mundo.

Datos sobre el articulo
Redacción
Opiniones del artículo
Otras materias disponibles
Recomendado