nazi
[/naz.i/]
Définition
définition améliorée et claire EN FRANÇAIS : Terme désignant le parti national-socialiste allemand, fondé par Adolf Hitler en 1920 et au pouvoir de 1933 à 1945. Par extension, il peut désigner des idées ou des opinions d'extrême droite, souvent caractérisées par le rejet de la démocratie, l'antisémitisme et l'intolérance.
Exemple
- "Les nazis ont pris le pouvoir en Allemagne en 1933."