L'impérialisme désigne la politique d'expansion territoriale et d'influence économique d'un État sur d'autres territoires. Il a été une caractéristique majeure de la période coloniale européenne, où des puissances comme la Grande-Bretagne, la France et l'Allemagne ont étendu leur domination sur de vastes régions du monde.
28/03/2025
Signaler une anecdote

Catégorie: politique