Ansehen Deutschlands in den USA weiter gestiegen
Einer aktuellen Umfrage zufolge steigt das Ansehen der Deutschen in Amerika stetig. Deutschland werde von den Amerikanern als “modernes, innovatives Land” wahrgenommen, das einer der “bedeutendsten Partner” der USA sei. Deutschland rangiert in der Skala […]