Künstliche Intelligenz erreicht mit der Manipulation von Reiseerlebnissen eine neue Stufe der Täuschung. Ein aktueller Fall in Malaysia zeigt, wie gefälschte Videos Touristinnen und Touristen dazu verleiten, Ziele anzusteuern, die gar nicht existieren. Die Entwicklung wirft ein Schlaglicht auf die wachsende Herausforderung, vertrauenswürdige Informationen in der digitalen Ära zu identifizieren.
Ehepaar fährt stundenlang zu fiktiver Seilbahn
Ein älteres Ehepaar fuhr Berichten zufolge drei Stunden von Kuala Lumpur in den malaysischen Bundesstaat Perak, um die angebliche Seilbahnattraktion „Kuak Skyride“ zu besuchen. Statt der im Video gezeigten Gondelfahrt durch üppige Wälder und über Berge fanden die beiden in der Stadt Kuak Hulu jedoch nichts vor, außer einem ruhigen Ort.
Die Grundlage für die Reise war ein Video auf TikTok. Das Filmmaterial zeigte eine professionell wirkende Reporterin, die mit der Seilbahn fuhr, die Reise lobte und zufriedene Touristinnen und Touristen interviewte.
Nachdem das Paar in einem Hotel in Perak eingecheckt hatte und sich beim Personal nach der Attraktion erkundigte, zeigte es das detaillierte Video. Die Hotelmitarbeiterin erklärte dem Paar, dass das Gesehene KI-generiert sei. Das Paar weigerte sich zunächst, dies zu glauben, da die Aufnahmen so authentisch wirkten. Die ältere Frau soll Berichten zufolge gedroht haben, die im Video gezeigte Journalistin zu verklagen, bevor sie erfuhr, dass auch diese Figur nur ein digitales Produkt der KI war.

KI-generierte Fälschungen nehmen dramatisch zu
Dieser Vorfall ist Teil einer weitreichenderen Entwicklung digitaler Täuschung. Die Zahlen belegen einen exponentiellen Anstieg von Deepfake-Angriffen. Laut Angaben des Identitätsdienstleisters Signicat vom Februar 2025 stieg der Anteil von Deepfake-Angriffen an allen Betrugsversuchen in nur drei Jahren von
