Rechtsanwalt Peter Hense spricht darüber, was Hoteliers beim Einsatz von KI aus rechtlicher Sicht beachten sollten und welche Bedeutung der AI Act der Europäischen Union hat.
Tophotel: Herr Hense, viele Hoteliers fragen sich zurzeit nicht nur, wie sie KI einsetzen können, sondern auch, welche rechtlichen Aspekte sie beachten müssen. Steht das Recht in Sachen KI noch am Anfang?
Peter Hense: Entschuldigen Sie, dass ich gleich etwas geraderücken muss: Nicht das Recht steht am Anfang, sondern das, was derzeit alles unter dem Begriff „KI“ verkauft wird, ist es. Rechtlich gibt es einfache und klare Alltagsregeln, die leider in kompliziertere Gesetze gefasst wurden. Ich meine Sätze wie: „Sei anständig und schade niemandem!“, „Drum prüfe, wer sich ewig bindet!“ und „Was du nicht willst, das man dir tu, das füg auch keinem anderen zu“. Juristisch klingt das oft komplizierter, aber am Ende kommt es aufs Gleiche raus.
Das EU-Parlament und die Mitgliedstaaten haben sich auf Regeln für den Einsatz von künstlicher Intelligenz geeinigt. Im Mai soll der sogenannte „AI Act“ in Kraft treten. EU-Politiker bezeichnen das Gesetz als historischen Schritt. Wie wird damit künftig KI reguliert?
Der AI-Act ist ein erster Schritt, ein Gesetz, dem durchaus noch etwas Liege- und Bedenkzeit gutgetan hätte. Aber es ist nicht schlecht. Die Idee ist, dass bestimmte Systeme, in denen Komponenten künstlicher Intelligenz stecken, aufgrund ihrer Unkontrollierbarkeit und Automatisierung erhebliche Risiken mit sich bringen. Bei Herzschrittmachern erscheint das klar, bei Steuerungsanlagen für Staudämme auch, bei Chatbots muss man etwas länger nachdenken. Aber auch da kann natürlich einiges schiefgehen, wenn man zum Beispiel Hotellerie der speziellen Sorte damit bedienen möchte. Damit meine ich Krankenhäuser oder Pflegeheime. Falsches Essen, falsche Blutgruppe, falscher OP-Saal: Kleine Zahlendreher haben dort fatale Auswirkungen.
Nach Angaben des EU-Parlaments handelt es sich um das weltweit erste KI-Gesetz. Wie wird das in anderen Ländern wie den USA und China gehandhabt?
Alle Länder dieser Welt werden binnen der nächsten Monate eigene Regeln erlassen. China hat bereits ein straffes Korsett gebaut, das so gar nicht in unsere Vorstellungen dieses Landes passt. Die USA arbeiten ganz massiv daran, dass automatisierte Entscheidungen nicht ohne Verantwortung einhergehen, und haben mit der Federal Trade Commission eine scharfe Behörde, die sehr effektiv geltendes Recht durchsetzt. Auch Desinformation und Deep Fakes sind in den USA vielerorts bereits intensiv rechtlich geregelt. Es ist momentan ein bisschen wie auf dem Wochenmarkt, wo die Staaten dieser Welt sich von allem, was präsentiert wird, ein paar Scheibchen abschneiden und daraus ihre eigene nationale Suppe kochen. China reguliert generative Modelle, die Texte, Bilder und Videos ausspucken, mit knappen Worten, lässt aber der Forschung freien Raum.
Die USA regulieren extrem dicht auf Ebene der Infrastruktur, zum Beispiel durch Exportverbote für Hochleistungschips. All das ist mächtig dynamisch und für den Durchschnittsbürger nicht völlig nachvollziehbar. Wovon wir ausgehen können, ist aber, dass die europäischen Regeln überall genau studiert und abgewogen werden. Europa ist ein wichtiger, vielleicht sogar der wichtigste Markt für KI derzeit.
“Wer Batman oder Ashton Kutcher in sein Hotel hineinprompted, hat ein Problem. Da hilft dann nur der Gang zum Anwalt.”
Die New York Times hat den ChatGPT-Entwickler OpenAI im Dezember verklagt. Durch das Füttern der KI mit journalistischen Artikeln und Fotos wurden möglicherweise Urheberrechte verletzt. Welche Folgen hätte ein Urteil zugunsten der New York Times für den künftigen Einsatz von ChatGPT?
Es ist klar, dass OpenAI rechtlich im Trüben fischt. Am Ende wird alles auf eine Lizenzierung von Daten zusteuern, denn diese Modelle sind auf ständig neuen und guten Input angewiesen. Das allerdings schränkt ihre Nutzbarkeit sehr stark ein. Hier sollten Hotels durchaus mal abwarten und nicht auf die erstbeste Lösung aufspringen. Trotz aller Werbung: Vernünftige Use Cases für generative KI sind sehr rar. Urheberrechtlich sind die aktuellen Tools Rechteverletzungsmaschinen, die man nur mit Augenmaß einsetzen sollte.
Einige Hotels nutzen bereits Chatbots, um mit Gästen zu kommunizieren. Was sollten Gastgeber beachten?
Die dabei eingesetzten Modelle können zwar Worte übersetzen, aber haben kein Verständnis von wahr oder falsch, können nicht rechnen oder rationale Vorschläge machen. Wer Retrieval Augmented Generation einsetzt, also Dokumenteninhalte vektorisiert und ein Sprachmodell nur zur Formulierung einer hübschen Antwort nutzt, der kann einigen Erfolg haben. Problematisch sind aber bereits das Auffinden der richtigen Informationen in einem längeren Dokument oder konfligierende Angaben in den Datenquellen. Damit kann ein Large Language Model nicht umgehen, und das Vertrauen in die Nutzbarkeit der Aussagen wird darunter massiv leiden. Hier hat die Technologie ihre Grenzen, und die beginnen recht früh.
Werden hier möglicherweise Urheberrechte verletzt?
Das ist am ehesten beim Generieren von Bildern denkbar, die eine Reproduktion der Trainingsdaten darstellen und damit auch geschützte Werke betreffen können. Kurz: Wer Batman oder Ashton Kutcher in sein Hotel hineinprompted, hat ein Problem. Da hilft dann nur der Gang zum Anwalt. Besser ist es, vorher zu verstehen, wo die Risiken liegen, und solche Fehler zu vermeiden.
KI kann auch eingesetzt werden, um E-Mails zu beantworten.
Ich würde stark davon abraten, dergleichen zu tun. Übersetzen: Ja. Korrigieren: Ja. Antworten lassen: Niemals. Wer das macht, hat die Kontrolle über sein Geschäft verloren. Natürlich haftet das Hotel dafür, wenn der Chatbot plötzlich 14 Tage im Fünfsternehotel für 79 Euro anpreist. Diese Technologie heißt nicht umsonst „Large Language Model“: Sie kann nicht rechnen und versteht die physische Welt nicht. Zahlen sind ihr egal.
Was gilt im Bereich Arbeitsrecht für den Einsatz von KI? Worauf sollte man achten?
Man sollte den eigenen Mitarbeitenden bestimmte Tools zum Ausprobieren und als Hilfe gestatten. Mehr nicht. Weder zur Analyse von Bewerberdaten noch für sonstige verrückte Überwachungsideen sollte man diese Systeme nutzen. Sie sind zu unausgereift, nicht kontrollierbar und es fehlt den meisten Hotels an Wissen und Geld, um den Einsatz der Systeme technisch und rechtlich sauber hinzubekommen.
KI kann von Unternehmen auch bei Bewerbungsverfahren eingesetzt werden. Zum Beispiel, um Bewerbungen vorsortieren zu lassen.
Bitte machen Sie das nicht! Sprachmodelle erwecken nur den Anschein logischer Sortierung, sie besitzen keine inhärente Logik, nicht nach menschlichen Kriterien. Wer das macht, der riskiert neben Diskriminierung jeder Art auch Datenschutzrisiken, denn automatisierte Vorsortierungen von Bewerbungsunterlagen sind nach Art. 22 DSGVO gesetzlich verboten.
“Übersetzen: Ja.
Korrigieren: Ja.
Antworten lassen: Niemals.”
Kann KI zum Erkennen von Fahrzeug-Nummernschildern beim Befahren der Hotelgarage eingesetzt werden, um Gästen den Zugang zu vereinfachen?
Ja. Das ist einer der wenigen Fälle, in denen bei vernünftiger technischer Ausgestaltung keine rechtlichen Sorgenfalten entstehen müssen.
Wird Gesichtserkennung beim Check-in bei uns rechtlich möglich sein?
Das ist ohne weiteres möglich, Beschränkungen gibt es hier nur im Bereich der polizeilichen Arbeit und bei Massendatenerfassung in Echtzeit, wie Gesichtserkennung in großen Menschenmassen. Individuell als Instrument der Zugangskontrolle ist das aber alles auch heute und erst recht morgen möglich. Ich persönlich halte das allerdings aus anderen Gründen für Quark: Gäste wollen persönlichen Kontakt, ein individuelles Erlebnis, ein Nach-Hause-Kommen erleben. Da passt biometrische Identifikation nicht dazu.