Le colonialisme désigne l'expansion et la domination d'une nation sur un territoire étranger, souvent au détriment des populations autochtones, avec pour objectif d'exploiter les ressources et d'imposer sa culture.
13/03/2025
Signaler une anecdote

Catégorie: politique