WERBUNG
WERBUNG
 
 
 
 
Hintergrundbild Epoche

Was ist eine Kolonie?


0
Kolonien in Afrika
1
Karte der deutschen Kolonien.

Woher stammt der Begriff "Kolonie"? Schon bei den alten Griechen sprechen wir von "Kolonien". Der Begriff selbst stammt aus dem Lateinischen und wurde von colere abgeleitet, das heißt so viel wie "bebauen".

Schon in der Antike gab es Kolonien

Schon die Menschen der Antike kannten Kolonien. So haben die Phönizier, die ja berühmte Seefahrer waren, Kolonien an der gesamten afrikanischen Nordküste gebildet. Auch die Griechen waren in der Gründung von Tochterstädten fleißig und bildeten so genannte "Pflanzstädte" im Mittelmeerraum. Diese Kolonien waren dann von ihren Müttern, also den Stadtstaaten, von denen aus die Siedler kamen, weitgehend unabhängig.

Auch bei den Römern gab es Kolonien, also Gebiete, die von den Römern erobert wurden, meist waren dies aber Städte. Der Name der Stadt Köln wurde übrigens vom Begriff colonia abgeleitet, Köln war ebenso eine römische Kolonie. Doch sollte man mit dem Vergleich vorsichtig sein, denn die "Kolonie" der Antike war doch etwas anderes als die Kolonien, die später die großen Kolonialmächte im 19. Jahrhundert gegründet haben.

Was wollten die Nationen in den fremden Ländern?

Wie so oft ging es auch bei den Kolonien um wirtschaftliche Interessen. Das heißt, man versprach sich, Schätze in den verschiedenen Ländern zu gewinnen. Das konnten Gold, Silber oder Diamanten sein, aber auch Bodenschätze wie Erze oder Kupfer. Exotische Handelsware war ebenfalls attraktiv. So gab es in vielen dieser eroberten Länder und Regionen Gewürze, Früchte, Tee, Kaffee oder Kakao - alles Dinge, die für die Europäer zunächst einmal Luxusgüter waren. In den Kolonien bekamen die Bauern allerdings meist sehr wenig Geld für ihre Erzeugnisse. Im schlimmsten Fall mussten sie auch noch als Sklaven arbeiten.

Macht, Weltgeltung und wirtschaftliche Interessen

Die Kolonien sah man auch gleichzeitig als Absatzmarkt. Das heißt, man wollte europäische Güter in diese Länder verkaufen. Das funktionierte allerdings nicht immer, denn oft waren die Einwohner so arm, dass sie gar nichts kaufen konnten. Auch die Themen Macht oder Weltgeltung waren sehr wichtig. Wer mehr Länder besaß, konnte sein Ansehen als Weltmacht stärken, wurde von den anderen Ländern geschätzt und beneidet. Auch dies war ein Grund, weshalb viele Länder gerne Kolonien in ihren Besitz bringen wollten. Das traf auch auf das Deutsche Reich zu, 

Doch freiwillig wollte kein Land zur Kolonie werden und sich damit in Abhängigkeit begeben. Die meisten Kolonien wurden gewaltsam erobert, manche auch ohne größeren Widerstand einfach besetzt. Fast immer versuchten die Kolonialmächte, ihre eigene Kultur, ihr Weltbild und ihr Lebensgefühl auf die Kolonien zu übertragen. Auf der anderen Seite gab es ebenso positive Entwicklungen, denn die Kolonialmächte bauten oft Schulen, Straßen und Krankenhäuser und kümmerten sich um ein funktionierendes Versorgungssystem in den Kolonien. Das war eine Verbesserung der Infrastruktur

Kolonialismus und Imperialismus

Oft werden die Begriffe Kolonialismus und Imperialismus synonym verwendet. Das ist so nicht ganz richtig, wenn auch in der Wirklichkeit vieles sowohl auf Imperialismus wie auch Kolonialismus zutrifft. Doch die Errichter der Kolonien wollten in erster Linie wirtschaftlichen Nutzen für ihr Mutterland ziehen. Den Imperialisten ging es gleichzeitig um die Ausdehnung ihres Machtbereiches und der Errichtung eines Imperiums. Das umfasste am Ende mehr, als einige kleine Kolonien in seinen Besitz zu bringen und hat ganz viel mit der Erweiterung von Macht zu tun.

Es ist kaum vorstellbar, dass nach dem Ende des Ersten Weltkriegs noch ein Großteil der Welt in Kolonien lebte, alle Kontinente waren Teil des Kolonialismus.



WERBUNG
WERBUNG
  • Hintergrund BRD
  • Hintergrund DDR

Gefördert in den Jahren 2011 bis 2013 von: