Les etats-unis et le monde extérieur
Depuis leur création, les États-Unis se sont toujours perçus comme étant une nation privilégiée. Nés du colonialisme, ils se sont vite proclamés les défenseurs de l’autodétermination et de l’indépendance des peuples. Même de nos jours, à Washington, l’idée que l’Amérique ait des responsabilités mondiales n’est pratiquement mise en doute par personne. Le gouvernement Bush va même jusqu'à dire qu’une domination étasunienne sur la planète est dans l’intérêt de tout le monde. D’ailleurs, aux États-Unis, des penseurs croient que parce que les États-Unis introduisent un degré élevé de moralité dans leur politique étrangère, les autres nations comprennent qu’elles ont moins à craindre de leur puissance. Nous nous posons donc la question suivante : le leadership américain au XXe siècle a-t-il permis de moraliser les relations internationales ? Si par « moraliser » nous entendons introduire des valeurs morales universelles telles la liberté des individus, les droits de l’Homme, le droit des peuples à disposer d’eux-mêmes, etc., nous ne croyons pas que les États-Unis aient moralisé les relations internationales. En tenant compte de la politique étrangère des États-Unis, nous pouvons dire que même si elle tend théoriquement à travailler au bonheur de l’humanité, ses actions vont souvent dans le sens contraire. Pour étayer notre point de vue, nous présenterons d’abord un aperçu des grandes traditions de la politique extérieure américaine, pour ensuite nous pencher sur les actions entreprises par les États-Unis qui vont à l’encontre de l’idéologie de bons samaritains qui ressort de leurs discours politiques.
Les grandes orientations de la politique étrangère des États-Unis
L’isolement géographique des États-Unis a amené dès sa création un courant isolationniste, incitant le pays à rester à l’écart des relations internationales. Ce courant isolationniste s’est maintenu jusqu'à l’acquisition de la bombe atomique par