KI-Haftung vor Gericht
Das Landgericht Hamburg urteilt gegen X
Das LG Hamburg hat der Gesellschaft X.AI LLC im Wege einer einstweiligen Verfügung untersagt, über deren Account falsche Tatsachenbehauptungen zu verbreiten. Das Gericht machte klar: Die Haftung für KI-Halluzinationen rückt stärker in den Fokus. Unternehmen müssen künftig genauer prüfen, was ihre Künstliche Intelligenz veröffentlicht.
Wann haften Unternehmen für fehlerhafte KI-Aussagen?
Der Einsatz von Künstlicher Intelligenz ist längst Alltag, doch mit den Vorteilen der Automatisierung gehen auch rechtliche Risiken einher. Besonders problematisch sind sogenannte KI-Halluzinationen, die plausibel klingen, aber nicht der Wahrheit entsprechen. Solche fehlerhaften Angaben können gravierende Folgen haben, von Reputationsschäden bis hin zu Schadensersatzforderungen.
Was entschied das Landgericht Hamburg im Fall GrokXCampact e. V.?
Im September 2025 untersagte das LG Hamburg dem US-Unternehmen X.AI LLC, Betreiber des KI-Bots Grok, die Verbreitung falscher Behauptungen über den deutschen Verein Campact e. V.. Das Gericht sah die Aussage als rechtswidrige Tatsachenbehauptung und somit als Eingriff in das Vereinspersönlichkeitsrecht an.
Warum ist das Urteil rechtlich so bedeutsam?
Das LG Hamburg geht einen Schritt weiter: Nicht nur der Verwender, sondern auch der Betreiber des KI-Systems kann haftbar gemacht werden. Das Urteil verdeutlicht, dass Unternehmen für die Inhalte ihrer KI-Systeme haftbar sind, auch wenn diese automatisiert erstellt wurden.
Wie reiht sich das Urteil in die bisherige Rechtsprechung ein?
Ähnliche Entscheidungen zeigen, dass Haftungslücken durch die Nutzung von KI-Systemen nicht geduldet werden. Unternehmen müssen klar Verantwortung für ihre KI-Systeme übernehmen und effektive Kontrollmechanismen einführen.
Praktische Handlungsempfehlungen
Unternehmen sollten KI-Inhalte regelmäßig überprüfen, Transparenz schaffen, Risikomanagement etablieren, klare Regelungen zur Verantwortlichkeit treffen und Mitarbeitende sensibilisieren.
Wie können Fehler und Haftungsrisiken bei KI reduziert werden?
Strategien wie präzise Eingaben, Faktencheck-Mechanismen, Retrieval-Augmented Generation (RAG) und menschliche Kontrolle können dazu beitragen, KI-Halluzinationen zu minimieren.
Über SBS Legal
SBS Legal ist eine spezialisierte Kanzlei für Technologie-, Medien- und Datenschutzrecht und berät umfassend zur rechtssicheren Nutzung von Künstlicher Intelligenz. Das SBS Legal 3-Säulen-KI-Modell bietet Unterstützung bei der rechtssicheren und verantwortungsvollen Nutzung von KI-Systemen.
This article was automatically generated from an e-mail sent to the altii editorial system. Please note that the content has not been checked for accuracy, but we always endeavor to provide you with interesting and relevant information.