Grundsätzlich ist jedes IT System anfällig für Angriffe. Somit muss ein KI-Chatbot, wie jedes andere IT-System auch, vor Angriffe geschützt bzw. dagegen abgehärtet werden.
Was unterscheidet Chatbots nun von anderen IT-Systemen?
Ein KI-Chatbot muss gegen ein wichtiges Prinzipien der IT-Sicherheit verstoßen, er befolgt (beliebige) Anweisungen von Fremden: „Beantworte mir folgende Frage…“, „Fasse meine Notizen / E-Mails, zusammen.“, „Schreibe eine E-Mail zu folgendem Thema…“ sind nur ein paar typische Beispiele.
Mehr noch, während Software normalerweise festgelegten Befehlen in strukturierten Programmen folgt, muss ein Chatbot möglichst vielfältige Anweisungen auszuführen. Gerade deswegen sind die KI-Assistenten derart vielseitig und beliebt. Jedoch kann niemand garantieren, dass diese Anweisungen bzw. die Personen die sie geben, immer gute Absichten haben bzw. nur die Anweisungen geben für die der Chatbot eigentlich gedacht ist.
Was wollen Angreifer von meinem Chatbot?
Alles was wertvoll ist. Hat Ihr Chatbot Zugriff auf Unternehmensdokumente? Sind Sie sicher, dass dort keine sensiblen oder vertraulichen Informationen mehr enthalten sind? Nützt es einem Angreifer, wenn Ihr Chatbot anderen Nutzern falsche oder manipulierte Antworten gibt? Kann Ihr Chatbot Aktionen ausführen wie Nachrichten versenden, Rabattcodes ausstellen, …?
Welche Einfallstore gibt es für Angreifer?
Im Wesentlichen zwei: Erstens, die Eingabe (der Prompt) selbst. Warum nicht nach Firmengeheimnissen oder 100% Rabattgutscheinen fragen… Zweitens, die Dokumente die Ihr Chatbot verarbeitet. Nutzen Sie Quellen aus dem Internet? Oder verarbeitet der Chatbot Ihre E-Mails? Dort kann ein Angreifer Fehlinformationen oder schädliche Instruktionen sogar dauerhaft und mit Auswirkung auf andere Nutzer hinterlegen.
Wie sehen Angriffe aus?
Leider nicht wie klassische Cyberattacken. Von fantasievollen Geschichten bis „Geheimcodes“ ist alles dabei. Und ständig werden neue Angriffstaktiken veröffentlicht.
Ist meine Chatbot schutzlos ausgeliefert?
Nein. Zunächst ist es wichtig, die möglichen Schwachstellen des Chatbots zu kennen und zu bewerten. Dann gilt es zu testen, ob Ihr Chatbot böswillige Anweisungen zuverlässig ablehnt, oder ob er bereitwillig Unternehmensgeheimnisse ausplaudert, vergiftete E-Mails schreibt oder manipulierte Antworten gibt. Das kann in einer Red Teaming Kampagne untersucht werden. Die Ergebnisse helfen ebenfalls, Verteidigungsstrategien anzupassen und so die möglicherweise erfolgreichen Angriffe abzuwehren. Eine ausgeklügelte Monitoring Strategie hilft dabei, auf die verbleibenden Lücken, z.B. durch neuartige Angriffe, angemessen zu reagieren.
Mit unserer Expertise in KI-Systemen, KI-Sicherheit und insbesondere Angriffen gegen große Sprachmodelle unterstützen wir Sie dabei, Ihren Chatbot gegen die Gefahren im Internet abzuhärten und verhindern, dass er sich einfach gegen Sie einsetzen lässt. Gerne zeigen wir Ihnen Test- und Monitoring-Konzepte für Chatbots. Kontaktieren Sie uns gerne für ein unverbindliches Gespräch oder eine Demo.

Bildquelle: Image by Thomas (Sinousxl) from Pixabay