L'impérialisme européen au XIXe siècle a entraîné la colonisation de vastes territoires en Afrique, notamment par la France et la Grande-Bretagne, qui ont exploité les ressources naturelles et imposé leur domination politique et économique.
12/01/2024
Signaler une anecdote

Catégorie: politique