In den letzten vier Jahren hat sich das Verhältnis zwischen Deutschland und USA spürbar abgekühlt. Viel Vertrauen wurde zerstört und viele Deutsche sehen das transatlantische Verhältnis zunehmend als weniger wichtig an. Jedoch darf man nicht vergessen, dass die Vereinigten Staaten und Deutschland eine lange politische, wirtschaftliche und auch strategisch/militärische Partnerschaft verbindet. Wir haben deshalb im Lichte der Präsidentschaftswahl gefragt: Gelten die Vereinigten Staaten nach wie vor als strategischer Partner Deutschlands?