Das historische Erbe einer verdrängten Zeit. Deutschland - eine Kolonialmacht? Die Legende von der zaghaften kleinen Möchtegern-Kolonialmacht, die sich zivilisierter betragen hat als andere, kommt allmählich ins Wanken. Und das zu Recht, denn das deutsche Kaiserreich beutete kolonisierte Länder in Afrika, in China oder der Südsee nicht weniger gierig und gewalttätig aus als andere Kolonialmächte.
Siehe auch