Schlagwort-Archive: Die Deutschen und ihre Kolonien

Die Deutschen und ihre Kolonien

Das deutsche Kolonialreich stellte eine recht kurzlebige Episode der kommerziell und ideologisch geprägten Expansionsbestrebungen der Deutschen dar. Im Auftrag anderer Mächte und Nationen waren sie allerdings von Beginn an am Prozess neuzeitlicher Expansion Europas als Soldaten, Kaufleute, Missionare oder Wissenschaftler beteiligt. Die 30 Jahre deutsches Kolonialreich (1884 – 1914) haben also eine lange Vorgeschichte und wirken bis heute nach. Mit dem Buch Die Deutschen und ihre Kolonien wollen die Herausgeber Horst Gründer und Herman Hiery „losgelöst von der Emotionalität politischer Debatten“ einen Überblick über die Geschichte des Kolonialreiches in Afrika, Asien und Südsee vermitteln. Weiterlesen

Advertisements

Ein Kommentar

Eingeordnet unter 19. Jahrhundert, 20. Jahrhundert, Allgemein, Rezension