История Европы

В каком году США стали империалистами?

Соединенные Штаты начали свои империалистические устремления в конце 19 века, начиная с испано-американской войны в 1898 году. В конце этого конфликта США получили новые территории, такие как Пуэрто-Рико, Гуам и Филиппины, среди других. Это положило начало периоду американского империализма, который продолжался до середины 20 века.