L'impérialisme désigne la politique d'expansion territoriale et de domination économique d'un État sur d'autres territoires. Ce phénomène a marqué l'histoire du XIXe siècle, notamment avec la colonisation de l'Afrique par les puissances européennes.
24/10/2025
Signaler une anecdote

Catégorie: politique