Im Interview spricht Hollywood-Legende Kevin Costner über seine neue Doku-Serie „The West“ und erklärt, warum die USA gut daran täten, sich auf ihre Vergangenheit zu besinnen
In diesem absoluten Serien-Geheimtipp mit Kevin Costner wird das wahre Gesicht der USA aufgedeckt – und das im amerikanischsten aller Genres: dem Western