Über Rechte reden. Der deutsche Nationalismus nach 1945
Die Geschichte der Bundesrepublik wird meist als die einer zunehmenden Liberalisierung erzählt. Außen vor bleibt dabei meist, wie verschiedene Formen des Nationalismus in diese Meister-Erzählung passen. Tatsächlich zeigen neuere Forschungen, dass in Westdeutschland nicht nur Prozesse stattfanden, die das Land liberaler machten, sondern auch solche, durch die es nationalistischer wurde.