📝Noms(masculin)/wɛstɛʁn/
westerns
#cinéma#littérature#genre
5
synonymes
📖 Définition
Un western est un film ou un livre qui raconte des histoires se passant dans l'Ouest américain autrefois, avec des cow-boys, des duels, des Indiens et des chercheurs d'or. C'est un genre qui parle de l'aventure, de la justice et de la vie dans les grands espaces.
