Réponses

2014-10-07T14:29:14+02:00
Bonjour,

Après le première guerre mondiale, il y a eu le traité de paix donc le traité de Versailles en France organisé par les Etats vainqueurs, signé le 28 juin 1919. 

L'Allemagne a été exclue des négociations mais elle était obligé d'accepté cette paix. Cette paix a été humiliante pour l'Allemagne car elle n'a pas été invité, son territoire a été réduit et sa force militaire affaiblie.

Après cette guerre il y a eu également de grand changement au niveau de la carte d'Europe. Les frontières entre les pays sont apparus.
Certains Etats ont perdu beaucoup de territoire comme la Russie. Mais il y a également des Etats qui on été crée voir agrandit comme la Bulgarie.

En espérant vous avoir aider. Essayez tout de même de reformuler mes propos à votre façon.