nazi

nom
[/naz.i/]

Définition

définition améliorée et claire EN FRANÇAIS : Terme désignant le parti national-socialiste allemand, fondé par Adolf Hitler en 1920 et au pouvoir de 1933 à 1945. Par extension, il peut désigner des idées ou des opinions d'extrême droite, souvent caractérisées par le rejet de la démocratie, l'antisémitisme et l'intolérance.

Exemple

  • "Les nazis ont pris le pouvoir en Allemagne en 1933."

Synonymes

national-socialisteextrême droite

Mots suivants dans le dictionnaire

Voir tous les mots en N