L'impérialisme désigne la domination politique et économique d'un État sur d'autres territoires. Au XIXe siècle, les puissances européennes ont étendu leur contrôle sur de vastes régions en Afrique et en Asie, pratiquant l'exploitation des ressources et des populations locales.
29/04/2024
Signaler une anecdote

Catégorie: politique