L'impérialisme désigne la politique d'expansion d'un État en assujettissant d'autres territoires. Au XIXe siècle, les grandes puissances européennes ont pratiqué l'impérialisme en colonisant de vastes régions en Afrique, en Asie et en Amérique.
17/07/2025
Signaler une anecdote

Catégorie: politique