IMPERIALISMO, ESTADOS UNIDOS
Los Estados Unidos emprendieron una política imperialista orientada prioritariamente hacia el Caribe y Centroamérica, sin olvidar el sur del continente. También comenzaron a poner su punto de mira en el Pacífico, con el objetivo de situar en algunos enclaves bases navales para proteger sus rutas comerciales con Asia.
El período que comprende la última década del siglo XIX y los primeros aff. os del siglo XX hasta la Primera Guerra Mundial, se define frecuentemente en los libros de texto como la época del imperialismo norteamericano.
Comentarios
Publicar un comentario