Was geschah mit Deutschland nach Hitlers Tod?

1 Antworten


  • Sie glaubten, dass einige „Rassen“ besser seien als andere. Rassismus ist eine Form von Hass. Hass kann leicht zu Gewalt führen. Als die Nazis 1933 an die Macht kamen, waren ihre rassistischen Überzeugungen bekannt, aber nur wenige Menschen erwarteten, dass sie Gewalt gegen die von ihnen regierten Menschen anwenden würden. Vor Ausbruch des Zweiten Weltkriegs wurden jedoch die ersten Schritte in Richtung Holocaust unternommen. In einem Brief Hitlers selbst an Josef Hell (1922) heißt es: Wenn ich jemals an der Macht bin, wird die Vernichtung der Juden meine erste und wichtigste Aufgabe sein. Sobald ich die Macht habe, werde ich Galgen nach Galgen aufstellen lassen. Dann werden Juden nacheinander gehängt und bleiben hängen, bis sie stinken. Die Juden wurden in "Mein Kampf" häufig erwähnt, und Hitler hatte seinen Hass auf sie deutlich gemacht. Verweise auf den "schmutzigen Juden" verstreuen das Buch.In einem Abschnitt schrieb Hitler darüber, wie die Juden planten, das Blut reiner Deutscher zu "kontaminieren": "Die jüdische Jugend lauert stundenlang auf ...
    ein unverdächtiges deutsches Mädchen, das er verführen will ... Er will
    ihr Blut verunreinigen und sie aus dem Busen ihres eigenen
    Volkes entfernen . Der Jude hasst die weiße Rasse und will ihr kulturelles
    Niveau herabsetzen, damit die Juden dominieren.“ Nach seiner Machtübernahme nutzte Hitler seine Position, um eine Kampagne gegen die Juden zu starten, die im Holocaust gipfelte.

Schreibe deine Antwort

Ihre Antwort erscheint nach der Moderation appear