Der digitale Verrat

GenAI-Anwendungen erbringen eine breite Palette an Dienstleistungen – von der Recherche und dem ­Verfassen von Texten über die Kundenbetreuung bis hin zur psychologischen Unterstützung. Menschen­ähnliche Interaktionen zu simulieren, birgt allerdings das Risiko der Täuschung und Manipulation.

Artikel erschienen in Swiss IT Reseller 2024/03

     

Generative KI geht mit enormen Chancen einher, aber auch mit Risiken – vor allem, wenn es um menschenähnliche Interaktionen geht. Angesichts dieser Problematik hat der Swico Digital Ethics Circle ein Merkblatt herausgegeben. Es benennt sieben Fallstricke im Einsatz generativer KI-Technologien und illustriert diese mit Use Cases und realen Szenarien.

Besondere Aufmerksamkeit ist gefordert, wenn es um Firmengeheimnisse geht, wenn Mitarbeitende im KI-Chatbot sensible Unternehmensdaten eingeben, zum Beispiel für die Zusammenfassung von Sitzungsprotokollen oder um Programmcode zu generieren. Denn diese Daten könnten für das Training der KI-Modelle verwendet werden, womit die Informationen in den Ergebnissen anderer Nutzer landen können. Sensible Daten könnten ausserdem in falsche Hände gelangen und missbraucht werden, etwa um Identitäten zu stehlen. Sogenannte Prompt-Injections-Angriffe könnten die KI-Tools sogar dazu bringen, Informationen preiszugeben, die sie nicht preisgeben sollten.

I han es Zündhölzli azündt

Folgendes fiktives Szenario zeigt, wie ein einziger unbedachter Moment schwerwiegende Folgen für ein ganzes Unternehmen und seine Kunden haben kann. Die hochfliegende Geschichte von Markus Schneider ist eine mahnende Erinnerung daran, dass mit grossen Datenmengen und fortschrittlicher Technologie auch eine grosse Verantwortung einhergeht.

Die Geschichte: Markus Schneider war als Versicherungsberater bei einer renommierten Versicherungsgesellschaft tätig. Er verstand sich auf komplexe Kundenanliegen und war immer auf der Suche nach innovativen Lösungen. Als eine Tech-Firma seinen neuen KI-Chatbot vorstellte, war Markus sofort fasziniert von dessen Potenzial und beschloss, ihn für interne Prozessoptimierungen zu nutzen. Ohne die möglichen Risiken vollständig zu bedenken, begann Markus, den Chatbot mit sensiblen internen Daten zu füttern, darunter auch vertraulichen Kundendaten. Er war überzeugt, dass der Chatbot die Effizienz und Kunden­betreuung zu verbessern vermag. Was er jedoch nicht ahnte, war, dass der virtuelle Agent eine Sicherheitslücke aufwies, die es externen Parteien ermöglichte, auf diese sensiblen Daten zuzugreifen. Bald darauf begannen Kunden der Versicherungsgesellschaft, Berichte über ungewöhnliche Aktivitäten und Identitätsdiebstahl zu melden. Die Versicherungsgesellschaft stand plötzlich im Zentrum eines massiven Datenschutzskandals. Ermittlungen ergaben, dass Markus' Verwendung von generativer KI zum Datenleck geführt hatte.


Das Finale: Die Versicherungsgesellschaft musste schnell handeln, um den Schaden zu begrenzen. Sie sah sich mit einer Flut von Beschwerden, rechtlichen Herausforderungen und einem massiven Vertrauensverlust ihrer Kunden konfrontiert. Markus wurde sofort suspendiert und die Geschäftsleitung entschied, den Chatbot nicht mehr zu verwenden. Zusätzlich musste das Unternehmen erhebliche Summen in die Verbesserung der eigenen IT-Sicherheit und in Entschädigungszahlungen an die betroffenen Kunden inves­tieren. Die Medien berichteten ausführlich über den Vorfall, was das Image der Versicherungsgesellschaft stark beschädigte. Viele Kunden kündigten ihre Verträge und wechselten zu Konkurrenten. Die Aktien des Unternehmens fielen, und es dauerte Monate, bis das Vertrauen der Kunden und der Öffentlichkeit wiederhergestellt werden konnte.

Learnings:
- Prüfen, bei welchen Tätigkeiten kein Textgenerator eingesetzt werden sollte.
- Die Datenschutzrichtlinien der Anbieter von KI-Tools lesen, um zu wissen, wie die Daten verwendet werden.
- Bei der Eingabeaufforderung (Prompt) keine vertraulichen, sensiblen oder persönlichen Daten eingeben, weil diese in fremde Hände gelangen können.
- Für das Thema sensibilisiert sein, um sich den Herausforderungen beim Datenschutz und bei der Datensicherheit bewusst zu sein.

Wie jede Technologie bietet auch die generative KI nicht nur viele neue Möglichkeiten. Sie hat auch ihre Grenzen. Sie zu kennen ist wichtig, um Tools wie ChatGPT und Co. gewinnbringend und verantwortungsvoll einzusetzen.
Quelle: Swico
Über diesen QR-Code gelangen Sie zum PDF-Download des Merkblatts «Digitalethik: Umgang mit sieben Fallstricken bei ChatGPT und Co.».

Die Autorin

Quelle: Swico
Franziska Vonaesch kennt Kommunikation aus verschiedenen Perspektiven: Als Kommunikationsfachfrau war sie für internationale Grossfirmen tätig, brachte als Verlagsleiterin einen regionalen Verlag erfolgreich auf den Weg in die Zukunft und gründete schliesslich ihr eigenes Kommunikationsunternehmen. Seit September 2022 ist sie bei Swico verantwortlich für die Kommunikation.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Was für Schuhe trug der gestiefelte Kater?
GOLD SPONSOREN
SPONSOREN & PARTNER