Voyage       https://fr.bhlyqj.com

Le Traité de Versailles a-t-il apporté la paix en Europe ?

Non, le Traité de Versailles n'a pas apporté la paix en Europe. L’Allemagne a été humiliée et appauvrie par le traité, qui a créé les conditions propices à la montée du parti nazi. Le traité imposait de lourdes réparations à l'Allemagne et limitait sévèrement la taille de son armée.