Réponses

2014-10-28T15:12:16+01:00
Es Etats-Unis sont-ils un empire ? La question est désormais courantes chez les historiens. Au motif qu’ils sont une ancienne colonie émancipée de la tutelle britannique, les Etats-Unis seraient par nature hostiles à la colonisation. Il n’en n’est rien. Les Quatorze Points de Wilson ne doivent pas cacher l’évidence.

Le XXe siècle voit l’affirmation de la puissance américaine. Elle n’est pas que militaire et politique. La révolution fordiste, le pouvoir des multinationales, la suprématie du dollar, Hollywood transforment, plus ou moins en douceur, les sociétés du monde entier. La Seconde Guerre mondiale et la guerre froide consacrent le statut de superpuissance des Etats-Unis : la « République impériale » - l’expression est de Raymond Aron - , lancée dans la compétition avec l’URSS, se retrouve à la tête d’un réseau d’influence sans équivalent dans l’histoire de l’humanité. Après la chute du mur de Berlin, son triomphe semble total. Le monde est devenu américain.