Les Allemands ont-ils immigré ou colonisé les États-Unis ?

1 Réponses


  • LES DEUX. Les Allemands ont commencé à migrer vers les États-Unis vers les années 1700. Comme c'est drôle que personne ne leur ait dit qu'ils devaient avoir des papiers légaux ou qu'ils devaient parler anglais ou qu'ils ne voulaient pas entendre ce gâchis allemand. Ils ont également aidé/assisté à la colonisation de certaines zones. Rien qu'en Pennsylvanie, il y avait 45 000 Allemands. Ils se sont emparés de beaucoup de terres du pays appartenant à nos Indiens d'Amérique et en ont tué beaucoup. De nombreux nazis ont également réussi à s'échapper aux États-Unis

Ecrivez votre réponse

Votre réponse apparaîtra après modération