L'impérialisme désigne la politique d'expansion territoriale et économique d'un État au détriment d'autres nations. Au XIXe siècle, les puissances européennes ont notamment pratiqué l'impérialisme en colonisant de vastes territoires en Afrique et en Asie.
28/05/2024
Signaler une anecdote

Catégorie: politique