👤

que significou o fim do colonialismo no continente africano​

Resposta :

Resposta:

O continente africano foi colônia de potências europeias até a segunda metade do século XX. Sua independência se deu pela ocorrência da Segunda Guerra Mundial, que aconteceu na Europa entre 1939 e 1945. Um acontecimento que envolveu muitos países, dentre eles nações europeias que detinham territórios de exploração no continente africano.