Skip to main content

Wenn es um Cyberangriffe geht, passt Datenvergiftung (Data Poisoning) leider nur allzu gut ins Bild. Es klingt einfach schlecht – besonders in einer Geschäftswelt, die Daten zunehmend als digitales Pendant zu einem wertvollen Rohstoff betrachtet.

Das ergibt Sinn, denn Datenvergiftung ist schlecht. Der Begriff bezieht sich auf ein neuartiges Risiko für KI-Modelle, bei dem ein Angreifer – egal ob von außen oder innen – Trainingsdatensätze absichtlich manipuliert, um die Arbeitsweise oder Ergebnisse des Modells zu beeinflussen. Das kann das Hinzufügen fehlerhafter Daten, die Veränderung existierender Daten oder das Löschen unbedenklicher Daten umfassen.

Wenn Sie KI-gestützte SaaS-Produkte entwickeln – zum Beispiel eine Marketing-Automatisierungslösung mit einem LLM-Tool – sollten Sie ganz genau hinschauen, wie Sie Ihre Modelle schützen.

Want more from The CTO Club?

Create a free account to finish this piece and join a community of CTOs and engineering leaders sharing real-world frameworks, tools, and insights for designing, deploying, and scaling AI-driven technology.

This field is for validation purposes and should be left unchanged.
Name*

In diesem Artikel teile ich Expertenratschläge zu zentralen Strategien, wie Sie das Risiko von Datenvergiftung in Ihren KI-Trainingsdatensätzen minimieren können.

Was ist Datenvergiftung?

Ein Beispiel für Datenvergiftung, bereitgestellt von NIST, die wie viele andere sicherheitsorientierte Organisationen offenbar der Bedrohung große Aufmerksamkeit schenken: „[Angreifer können] zahlreiche Instanzen unangemessener Sprache in Gesprächsprotokolle einschleusen, sodass ein Chatbot diese Vorkommen als hinreichend alltäglich einstuft und sie in eigenen Kundengesprächen verwendet.“

Plötzlich benutzt Ihr zuverlässiger Kundenservice-Chatbot Schimpfwörter (oder noch schlimmere Ausdrücke) im Gespräch mit echten Kunden. Das hat wohl niemand im Sinn, wenn von KI zur Steigerung von Produktivität, Effizienz oder Innovation die Rede ist.

Unabhängig vom Anwendungsfall müssen CTOs, die generative KI oder andere KI-basierte Anwendungen in ihre SaaS-Produkte integrieren, Maßnahmen ergreifen, um ihre Trainingsdaten vor böswilligen Ergänzungen, Löschungen oder anderen Manipulationen zu schützen – denn diese können alles beeinflussen: von der Leistungsfähigkeit des Modells über das Nutzererlebnis bis hin zur Markenreputation und mehr.

Ebenso scheinen Experten weitgehend einig: Prävention ist die beste Strategie gegen Datenvergiftung. Es ist meist einfacher, einen Vorfall zu verhindern, als die Folgen nachträglich abzumildern.

Wie Sie Datenvergiftung bekämpfen – 5 Prinzipien zur Risikominimierung

1. Kennen Sie Ihre Daten.

Der Schutz vor Datenvergiftung beginnt damit, zu wissen, was Sie eigentlich schützen – Sie können nur schützen, was Sie kennen.

„Der erste Schritt zur Bekämpfung von Datenvergiftung in KI-basierten SaaS-Produkten ist, genau zu wissen, mit welchen Daten Sie Ihr Modell trainieren“, sagt Ian Ahl, SVP von P0 Labs, der Threat-Research-Abteilung des Identity-Security-Anbieters Permiso. „Es ist entscheidend, Modelle mit Daten zu trainieren, die Sie selbst kontrollieren können.“

Um welche Art von Daten handelt es sich? Woher stammen sie? Wer hat Zugriff darauf? Wenn Sie diese oder ähnliche Fragen nicht klar beantworten können, sind Sie vermutlich stärker gefährdet für einen Datenvergiftungsangriff.

Ein gutes Verständnis Ihrer Trainingsdaten ist auch die Voraussetzung für effektive Data Governance, die wir im Folgenden noch erläutern. Klar ist: Es müssen Regeln dafür geben, wie Personen, Teams und Prozesse mit Trainingsdaten umgehen und sie nutzen dürfen.

„Indem Sie die Daten selbst evaluieren, können Sie stärkere Kontrollen für die Nutzer einführen, die an ihnen Änderungen vornehmen, und strenge Leitplanken dafür setzen, wie Kunden mit diesen Daten interagieren dürfen“, sagt Ahl. „Es ist eine Mischung aus Kontrolle über Personen, Prozesse und Daten.“

2. Überdenken Sie Ihre Daten-Transformationsstrategie.

Sie sollten auch darüber nachdenken – und gegebenenfalls neu bewerten –, wie Ihre Daten von den ursprünglichen Quellen zu Ihren Modellen gelangen, auch bekannt als Datenpipeline.

„Die Entscheidungen, die CTOs bei der Strategie für die Datenumwandlung treffen, wirken sich direkt auf die Sicherheit ihrer KI-gestützten SaaS-Produkte aus, denn sie bestimmen, wie verwundbar Datenpipelines für Vergiftungen sein können“, sagt Dave Jenkins, VP Product and Research bei Iterate.ai.

Konkret sagt Jenkins, dass wir uns mitten in einem grundlegenden Wandel von ETL (Extract, Transform, Load) zu ELT (Extract, Load, Transform)-Datenpipeline-Architekturen befinden. Es gibt viele Gründe für diesen Trend, doch ein Vorteil der letzteren Strategie ist, dass sie besser geeignet ist, das Risiko von Fehlern wie Datenvergiftung zu minimieren.

„Der Grund dafür: Wenn KI-Daten früh transformiert werden, das Modell aber noch schlecht abgestimmt ist oder die Datenmengen unvollständig sind – was bei ETL hin und wieder passiert – können fehlerhafte Daten fester Bestandteil des Systems werden“, sagt Jenkins. „Fehler und Halluzinationen können sich dann vervielfachen, und die Quelle der manipulierten Daten zu finden und zu korrigieren wird nahezu unmöglich.“

Deshalb, so ergänzt Jenkins, sollte man vermeiden, dass verschiedene Anwendungen ihre jeweiligen Transformationen selbst durchführen, bevor die Daten in ein zentrales Data Lake gelangen. Das ELT-Modell dreht die Reihenfolge dieser Schritte um und gibt Ihnen mehr Kontrolle sowie einen einheitlicheren Transformationsprozess.

„Indem alle Transformationen stattdessen in eine Data-Warehouse-Umgebung wie Snowflake verlagert werden, gewinnen CTOs und ihre Teams mehr Sichtbarkeit und Kontrolle, während sie ihre Produkte entwickeln,“ sagt Jenkins.

3. Setzen Sie auf gute Data Governance.

Sichtbarkeit und Kontrolle sind entscheidend, aber ohne starke Richtlinien und Governance entlang Ihrer Datenpipelines und Prozesse sind sie unvollständig.

„Um dies richtig zu machen, braucht es natürlich auch eine klare Governance,“ sagt Jenkins. „CTOs müssen festlegen, wo KI-Datentransformationen stattfinden dürfen. Sie werden Prüfpfade, Validierungsrahmen, Referenzdatensätze für Vergleichstests und idealerweise Transformationssandboxes haben wollen, um vor der Produktion auf Fehler oder Halluzinationen zu testen.“

Ahl merkt an, dass Governance auch Menschen einschließen muss, insbesondere durch klare Richtlinien und Leitplanken dazu, wer mit Trainingsdaten interagieren darf, welche Daten genutzt werden können usw.: „Wer immer die Möglichkeit hat, Dateien zum Trainieren eines Modells hinzuzufügen – ob einzelne Nutzer oder ein Team – für diese muss es Einschränkungen hinsichtlich der Daten geben, die sie verwenden dürfen.“

4. Stärken Sie Ihre gesamte Sicherheitsstrategie.

Es ist ebenso wichtig zu bedenken, dass KI im Allgemeinen die Angriffsfläche vieler Unternehmen erneut erweitert. Datenvergiftung ist nur eine – wenn auch wesentliche – potenzielle Bedrohung. All dies sollte im Rahmen einer umfassenden Sicherheitsstrategie geschehen.

Wenn Sie bereits grundlegende Sicherheitsanforderungen wie Patchmanagement, Passworthygiene, Identitätsmanagement und das Prinzip des geringsten Privilegs vernachlässigen, dann sind auch Ihre KI-Modelle und Trainingsdaten noch anfälliger für Risiken.

5. Ziehen Sie adversariales Modelltraining in Betracht.

Wenn neue Bedrohungen wie Datenvergiftung auftauchen, folgen in der Regel neue Strategien und Werkzeuge zum Schutz. Das ist aktuell bei KI der Fall, die mit einem ganzen Bündel neuer Risiken kommt – nicht nur Datenvergiftung. Diese werden manchmal unter dem Begriff „Adversarial AI“ zusammengefasst, also die böswillige Nutzung von Machine Learning und anderen KI-Typen, um andere KI-Systeme anzugreifen. Datenvergiftung ist eine Form von Adversarial AI.

Sie können hier das Blatt wenden und adversariales Training anwenden, das Ihre Modelle im Wesentlichen darauf vorbereitet, potenzielle Muster und Anomalien zu erkennen, die auf Datenvergiftung oder andere Formen von Adversarial AI hindeuten könnten, und dann entsprechende Gegenmaßnahmen zu ergreifen. 

Adversariales Training gewinnt zunehmend an Bedeutung als zentrale Methode zur KI-Sicherheit. Zum Beispiel bietet dieses wissenschaftliche Paper ein Framework zur Abschwächung von Verzerrungen, die durch Datensammlung im Gesundheitswesen entstanden sein können, wo die potenziellen Folgen von Datenvergiftung und anderen Angriffen besonders schwerwiegend sind. Ein weiteres Paper schlägt ein adversariales Trainingsframework speziell zum Schutz vor Datenvergiftung vor.

Wie geht es weiter?

Wenn Sie generative KI und andere KI-gestützte Fähigkeiten in Ihr SaaS-Produktportfolio integrieren, müssen Sie sicherstellen, dass Ihre Trainingsdaten sauber, korrekt und sicher sind.

Andernfalls erhöhen Sie das Risiko von Datenvergiftung und anderen Problemen – und diese Probleme lassen sich meist leichter verhindern als im Nachhinein beheben.

Bevor Sie gehen, melden Sie sich für unseren Newsletter an, um die neuesten Einblicke zu erhalten!