Co oznacza "kolonializm"?

Według słowników oksfordzkich "kolonializm" oznacza "politykę zdobywania pełnej lub częściowej kontroli politycznej nad innym krajem, okupowanie jej osadnikami i wykorzystywanie jej ekonomicznie." Wiele krajów i imperiów, od Grecy dla Amerykanów, zaangażowali się w kolonializm.

Encyklopedia filozofii Stanforda twierdzi, że kolonializm jest bardzo podobny do imperializmu; jednak czyni rozróżnienie między tymi dwoma, mówiąc, że imperializm jest zwykle tylko dominacją, podczas gdy kolonializm wymaga dominującej siły, aby wysłać osadników, którzy zmieniają charakter zdominowanego narodu. Na przykład Ameryka angażowała się w kolonializm, kiedy zbyła Indian amerykańskich z ich ziemi i osiedliła białe rodziny na swoich miejscach, ale zaangażowała się w imperializm, kiedy zajęła hiszpańskie kolonie Puerto Rico i Filipin. Kolonializm nie jest ostatnią innowacją; starożytna Grecja skolonizowała większość Morza Śródziemnego, zasadzając kolonie na Sycylii, w Azji Mniejszej i na wybrzeżu Afryki Północnej.