langweilen? Du warst nicht dabei, ich war nicht dabei... hörten aus dem Geschichtsuntericht. Meine ERFAHRUNG aus Afrika: die Deutschen wurden allgemein lobend bedacht. Und wenn ich den Reden dort glauben darf, die Deutschen haben dort viel Geld investiert, um Handelsplätze (für sich) zu schaffen. Die damalige Zeitsituation spricht aus heutiger Sicht dagegen, aber, ist, trotz aller Bemühung, "sich von irgendeiner Schuld reinwaschen zu wollen" mit einem immensen Geldfluß aus Deutschland, irgendwas anderes in Afrika entstanden? Demokratie? Gleichheit der Kulturen? Die Weißen haben sich Afrika zum Untertan gemacht... Hört mal alleweil. Kann es sein, es gab wirtschaftlichen Aufschwung? Kann es sein, daß dadurch Neid entstand? Man jetzt "Ureinwohnern", Familien, die 150 Jahre den Boden effektiv nutzen, das Recht absprechen, dort weiterhin leben zu dürfen und sie enteignet, ermordet, um ihren "Reichtum" zu besitzen? Afrika hat ihre - nein, nicht Afrika, ihre Despoten - haben ihre Kinder, ihr Land verkauft, um reicher und mächtiger zu werden. Das war schon immer so und wird immer so bleiben. Einige wenige werden sich bereichern, der Rest lebt im Dreck.
|