„Ich frage einfach die KI"

KI-Assistenten können viele Dinge. Eine fundierte Beratung zu Cyberversicherungen gehört nicht dazu — und wer das verwechselt, trägt das Risiko selbst.
Koverso · April 2026 · 5 min Lesezeit
Die Frage kommt inzwischen regelmäßig: „Kann ich nicht einfach ChatGPT, Claude etc. fragen, welche Cyberversicherung für uns passt?" Die Antwort ist nein — und zwar nicht aus Prinzip, sondern aus konkreten, nachvollziehbaren Gründen. Dieser Artikel geht sie durch.
Fünf Gründe, warum KI keine Cyberversicherung beraten kann
1
KI halluziniert — auch bei Versicherungsfragen
KI-Modelle sind darauf trainiert, plausible Antworten zu erzeugen — nicht zwingend korrekte. Im Versicherungsbereich bedeutet das: Ein Modell kann Deckungsbausteine nennen, die in einer konkreten Police gar nicht enthalten sind, Ausschlüsse unterschlagen, die entscheidend wären, oder Prämienrahmen angeben, die mit der aktuellen Marktlage nichts zu tun haben. Diese Fehler sehen nicht wie Fehler aus. Sie lesen sich genauso selbstsicher wie korrekte Informationen. Wer das nicht weiß, merkt den Unterschied erst im Schadensfall.
2
KI kennt Ihr Unternehmen nicht
Eine sinnvolle Empfehlung setzt voraus, dass jemand weiß, wie Ihr Unternehmen IT-technisch aufgestellt ist: Welche Software nutzen Sie? Gibt es Homeoffice-Arbeitsplätze? Wie sind Backups organisiert? Welche Daten verarbeiten Sie — und welche Dritten haben darauf Zugriff? Eine KI hat diese Informationen nicht. Und ohne sie ist jede Empfehlung eine Vermutung — präzise formuliert, aber ohne Substanz.
3
Aktuelle Daten allein reichen nicht
Viele moderne KI-Assistenten haben inzwischen Zugriff auf das Internet — sie können also prinzipiell aktuelle Informationen abrufen. Das klingt nach einem Vorteil. Es löst das eigentliche Problem aber nicht. Denn Cyberversicherungs-Policen sind keine öffentlichen Webseiten. Die konkreten Versicherungsbedingungen, Sublimits, Obliegenheiten und Ausschlüsse eines aktuellen Produkts sind nicht frei indexiert — sie stehen in Dokumenten, die Versicherer an Makler und Kunden ausgeben, nicht im offenen Web. Was eine KI online findet, sind Marketing-Zusammenfassungen, allgemeine Produktbeschreibungen und veraltete Fachbeiträge — kein aktueller Policentext, aus dem sich eine belastbare Aussage ableiten lässt. Wer das nicht weiß, hält eine oberflächliche Zusammenfassung für eine fundierte Analyse.
4
Keine Haftung — nirgends
Ein zugelassener Versicherungsmakler haftet nach §34d GewO persönlich für seine Beratung. Wenn er eine Police empfiehlt, die im Schadensfall nicht greift, weil er einen relevanten Punkt übersehen hat, ist er dafür haftbar. ChatGPT haftet für nichts. Perplexity haftet für nichts. Wer auf Basis einer KI-Auskunft eine falsche Entscheidung trifft, trägt das Risiko vollständig selbst — ohne Ansprechpartner und ohne Regress.
5
Ihre Unternehmensdaten gehören nicht in eine US-KI
Wer ChatGPT, Gemini oder ähnliche US-amerikanische KI-Dienste nutzt und dabei sensible Unternehmensdaten eingibt — Umsatzzahlen, Mitarbeiterzahlen, IT-Infrastruktur, Vertragsinformationen — sollte wissen, wo diese Daten landen. US-Anbieter unterliegen dem Cloud Act. Das bedeutet: US-Behörden können unter bestimmten Voraussetzungen auf Daten zugreifen, die auf Servern von US-Firmen rund um den Globus gespeichert sind — unabhängig davon, in welchem Land der Nutzer sitzt. Datenschutzrechtlich ist das für Unternehmen, die der DSGVO unterliegen, eine relevante Risikoposition. Ausgerechnet beim Thema Cyberversicherung — also beim Schutz vor Datenverlust und unberechtigtem Datenzugriff — Unternehmensdaten in ein System einzugeben, dessen Datenschutzlage ungeklärt ist, ist ein Widerspruch in sich.
Was dabei konkret schiefgehen kann
Szenario 1
Die Police ist hochgeladen — und trotzdem falsch verstanden
Ein Geschäftsführer lädt seine Cyberpolice als PDF in einen KI-Chat hoch und fragt, ob Betriebsunterbrechungsschäden durch Ransomware abgedeckt sind. Die KI bejaht das — sie hat den richtigen Abschnitt gefunden, aber den Sublimit von 25.000 Euro auf der nächsten Seite übersehen. Der tatsächliche Schaden nach einem Angriff: 140.000 Euro. Die KI hat nicht gelogen — sie hat unvollständig gelesen. Ein Makler hätte genau diesen Punkt im Beratungsgespräch aktiv angesprochen.
Szenario 2
Die Obliegenheit, die niemand kannte
Ein Unternehmer lässt sich von einer KI erklären, welche Voraussetzungen seine Cyberversicherung hat. Die KI nennt Standardanforderungen. Die tatsächliche Police enthält eine spezifische Obliegenheit zu Mehrfaktor-Authentifizierung für alle externen Zugänge — ein Detail, das im Gespräch mit einem Makler aufgefallen wäre. Nach einem Angriff über einen ungesicherten Remote-Zugang: Leistung abgelehnt.
Szenario 3
Die Daten, die mitgelesen wurden
Ein mittelständisches Unternehmen gibt in einem KI-Chat detaillierte Angaben zur IT-Infrastruktur, zu Umsatz, Mitarbeiterzahl und genutzten Softwaresystemen ein — um eine möglichst genaue Empfehlung zu erhalten. Dass diese Daten auf Servern eines US-Unternehmens gespeichert werden und dem Cloud Act unterliegen, war dem Geschäftsführer nicht bewusst. Dasselbe Unternehmen hatte gerade eine teure Cyberversicherung abgeschlossen, um genau solche Datenzugriffe abzusichern.
Warum KI das Thema trotzdem verändert — und was das bedeutet
KI macht Informationen zugänglicher. Das ist gut. Wer heute verstehen will, was ein Sublimit ist, was eine Obliegenheitsverletzung bedeutet oder wie Betriebsunterbrechungsdeckung funktioniert, findet dafür in Sekunden verständliche Erklärungen. Das Niveau des allgemeinen Verständnisses steigt — und das ist eine Voraussetzung für bessere Gespräche mit echten Beratern.
Was KI nicht kann: den letzten Schritt gehen. Den Schritt von allgemeinem Wissen zu einer konkreten, haftbaren Empfehlung für ein bestimmtes Unternehmen in einem bestimmten Markt zu einem bestimmten Zeitpunkt. Genau das ist der Schritt, auf den es ankommt.
KI kann erklären, wie Cyberversicherung funktioniert. Sie kann nicht beurteilen, ob eine konkrete Police für Ihr Unternehmen im Schadensfall wirklich greift.
Was das konkret bedeutet
Nutzen Sie KI-Tools gerne, um Begriffe zu verstehen, Fragen zu formulieren und sich einen ersten Überblick zu verschaffen. Das ist sinnvoll. Geben Sie dabei keine sensiblen Unternehmensdaten ein — IT-Infrastruktur, Umsatzzahlen, Kundendaten oder Vertragsinformationen haben in einem US-Cloud-Dienst ohne geklärte DSGVO-Konformität nichts zu suchen.
Für die eigentliche Entscheidung — welche Police, welcher Versicherer, welche Deckungssumme, welche Obliegenheiten sind realistisch erfüllbar — brauchen Sie jemanden, der Ihr Unternehmen kennt, den aktuellen Markt kennt und für seine Empfehlung haftet.
Wichtiger Hinweis
Versicherungsberatung ist in Deutschland erlaubnispflichtig (§34d GewO). Eine KI, die Ihnen ,,empfiehlt,, , welche Cyberversicherung Sie abschließen sollen, erbringt faktisch eine Beratungsleistung — ohne Zulassung, ohne Haftung, ohne Aufsicht. Das schützt Sie im Fehlerfall überhaupt nicht.
Cyberversicherung ist kein Produkt, das man googelt und kauft. Sie ist ein Instrument zur Risikoabsicherung in einem Markt, der sich schnell verändert — technisch, regulatorisch und schadensseitig. Wer dabei auf ein Sprachmodell vertraut, das selbstsicher antwortet, aber weder haftet noch Ihr Unternehmen kennt noch aktuelle Policenbedingungen liest, trägt das Risiko alleine.
Hinweis: Dieser Artikel dient der allgemeinen Information und ersetzt keine individuelle Beratung. Koverso ist als Versicherungsmakler nach §34d GewO zugelassen und haftet für seine Beratungsleistungen gegenüber Mandanten.
Beratung mit Haftung. Nicht mit Halluzinationen.
Koverso berät KMU in Deutschland ausschließlich zu Cyberversicherungen — mit aktuellem Marktzugang, persönlicher Haftung und Fokus auf den B2B-Bereich.
Mehr Beiträge
Bleiben Sie informiert über unsere neuesten Beiträge





