Voyage       https://fr.bhlyqj.com

Quand la Namibie a-t-elle été colonisée ?

La Namibie a été colonisée par l'Allemagne à la fin du XIXe siècle et sa domination coloniale a duré jusqu'en 1915, date à laquelle elle a été occupée par l'Afrique du Sud. L'Afrique du Sud a administré la Namibie jusqu'en 1990, date à laquelle elle a finalement obtenu son indépendance.