Künstliche Intelligenz und Datenschutz: die 6 grössten Risiken

Diskriminierung oder Urheberrechtsverletzungen sind nur einige der Gefahren, die die Nutzung von künstlicher Intelligenz im Zusammenhang mit dem Datenschutz mit sich bringt. Wir zeigen die Top Risiken im Bereich Datenschutz und ihre Auswirkungen anhand von konkreten Beispielen und ziehen ein Fazit.

Autor/in Digicomp
Datum 08.11.2024
Lesezeit 11 Minuten

Die Nutzung von künstlicher Intelligenz (KI) hat exponentiell zugenommen. KI ermöglicht es, grosse Datenmengen zu verarbeiten, zu analysieren und darauf basierend Entscheidungen zu treffen. Hierbei wird auf persönliche und sensible Daten zugegriffen. Das wirft eine Vielzahl von Datenschutzfragen auf.

Welche Risiken birgt KI im Kontext Datenschutz?

Um die Risiken von KI einschätzen zu können, müssen wir ihre Funktion verstehen. Gemäss einer Studie der SRH Berlin (2023) nutzen 40% der Unternehmen in der DACH-Region künstliche Intelligenz im Marketing. Knapp 32% geben an, nach eigener Einschätzung nur wenig über KI zu wissen. Welche Risiken bringt der Einsatz von KI-Systemen für Unternehmen und Privatpersonen mit sich?

1. Mangelnde Transparenz

Ein KI-Modell kann aus Millionen oder sogar Milliarden von Parametern bestehen. Jeder Parameter beeinflusst das Ergebnis auf eine Weise, die schwer isoliert betrachtet werden kann.
KI verwendet eine hohe Dimensionalität an Daten, wie z.B. Bilder, Sprache und Sensorinformationen. Die Schwierigkeit zu verstehen, wie KI-Systeme ihre Entscheidungen treffen bzw. ihren Output generieren, wird auch als Black-Box-Problem bezeichnet.

Beispiel: Eine Bank setzt ein KI-System ein, um über die Kreditwürdigkeit ihrer Kunden zu entscheiden. Die Entscheidungslogik ist aus den oben genannten Gründen derart komplex, dass die Bank nicht nachvollziehen kann, warum Kredite abgelehnt werden. Mitarbeitende können ihren Kunden keine Erklärung abgeben, warum der Kredit abgelehnt wurde. Kunden können die Entscheidung dadurch nicht verstehen oder anfechten.

2. Verzerrte Trainingsdaten

KI-Systeme benötigen grosse Mengen an Daten, um effektiv trainiert zu werden. Eine grosse Datenmenge erhöht die Wahrscheinlichkeit, dass alle relevanten Varianten und Kategorien, die das Modell erkennen soll, auch tatsächlich repräsentiert sind. Ist die Datenmenge zu klein, richtet sich das KI-Modell zu stark an spezifischen Beispielen aus. Ist eine Gruppe unterrepräsentiert, werden Muster falsch interpretiert werden.

Beispiel: Mitarbeitende einer HR-Abteilung nutzen für die Rekrutierung ein KI-System, welches mit Daten trainiert wurde, die eine historische Benachteiligung von Frauen widerspiegeln. Dies führt zu einer unbewussten Bevorzugung von männlichen Bewerbern. Wenn Männer in der Vergangenheit häufiger befördert wurden, z.B. weil weibliche Kandidaten zu diesem Zeitpunkt im Mutterschutz waren, nimmt die KI fälschlicherweise an, dass das Geschlecht ein Indikator für beruflichen Erfolg ist.

3. Urheberrechtsverletzungen

Eine der rechtlichen Herausforderungen im Zusammenhang mit künstlicher Intelligenz ist die Frage nach dem geistigen Eigentum. Je mehr Input eine KI-Anwendung erhält, desto genauer und effizienter arbeitet sie. Häufig werden öffentlich zugängliche Informationen im Training verwendet, wie z.B. Zeitungsartikel. Diese fallen unter das Urheberrecht. Erzeugt die KI-Anwendung Inhalte, die urheberrechtlich geschützten Inhalten stark ähneln, kann dies eine Urheberrechtsverletzung darstellen.

Beispiel: Französische Medienunternehmen klagten gegen Google, da deren KI-Anwendung «Gemini» ohne Vorabinformation mit Inhalten der Zeitung trainiert wurde. Die französische Wettbewerbsbehörde erwirkte im März 2024 eine Strafzahlung von Google in Höhe von 250 Mio. Euro. Die New York Times klagt aktuell gegen Microsoft und OpenAPI, da ChatGPT mit Millionen von Medieninhalten trainiert wurde.

4. Automatisierte Entscheidungen

Dank KI können Daten schneller analysiert und ausgewertet werden. KI-Systeme können die Effizienz in Unternehmen erheblich verbessern. Werden Entscheidungen automatisch getroffen, spart dies Zeit und Geld. Doch was passiert, wenn diese Entscheidungen fehlerhaft sind?

Beispiel: Ein Versicherungsunternehmen verwendet künstliche Intelligenz, um Schadensfälle effizienter bearbeiten zu können. Die KI-Anwendung empfiehlt den Mitarbeitenden die Annahme oder Ablehnung eines Schadens. In einigen Fällen werden legitime Ansprüche abgelehnt, weil der Algorithmus bestimmte Muster fehlinterpretiert. Kunden werden unfair behandelt, müssen Einspruch einlegen und länger auf ihre Entschädigung warten. Der zusätzlich generierte Aufwand erhöht die Kosten für das Versicherungsunternehmen.

5. Fehlende Kontrolle und Einwilligung

In vielen Fällen haben Individuen nur begrenzte Möglichkeiten, der Verarbeitung ihrer Daten durch KI-Systeme zu widersprechen oder ihre Präferenzen effektiv zu steuern. Bisher stehen noch nicht genügend Richtlinien zur Verfügung, um den ethischen Umgang mit KI-Systemen im Gesetz zu verankern. Wie kann ich gegen etwas widersprechen, was ich nicht weiss?

Beispiel: Eine App für mobile Geräte verwendet KI, um personalisierte Werbung zu schalten. Die App sammelt und analysiert persönliche Daten ohne ausreichende Aufklärung und explizite Zustimmung der Nutzer und Nutzerinnen. Im November 2022 wurde Google in den USA verklagt, da Standortdaten der Nutzer gesammelt wurden, obwohl diese Einstellung in den Smartphones der Betroffenen deaktiviert war.

6. Datenschutzverletzungen

Eine Datenschutzverletzung ist ein Sicherheitsvorfall, bei dem die Vertraulichkeit von Daten verletzt wird. Wie alle IT-Systeme, sind KI-Systeme anfällig für Sicherheitslücken. Datenlecks oder Datendiebstähle können gravierende Auswirkungen haben. Laut dem IBM-Bericht «Kosten einer Datenschutzverletzung 2022» kostete eine Datenschutzverletzung im Gesundheitswesen durchschnittlich 10,10 Millionen US-Dollar. Damit erreichen die Kosten einer Datenschutzverletzung erstmals zweistellige Zahlen in Millionenhöhe.

Beispiel: Ein Krankenhaus nutzt künstliche Intelligenz, um die Daten von Patienten und Patientinnen zu analysieren. Ein Hackerangriff führt zum Diebstahl sensibler Gesundheitsdaten, die im System gespeichert sind. Fehlende Daten können zu Behandlungsfehlern führen, die Privatsphäre tausender Patienten und Patientinnen wird verletzt und es droht die Gefahr von Identitätsdiebstahl.

Was denkt die Schweiz über künstliche Intelligenz (KI)?

Bis heute gibt es keine offizielle Definition von künstlicher Intelligenz. Economiesuisse definiert diese als «Entwicklung von Computern oder Maschinen, die kognitive Fähigkeiten wie Lernen, Problemlösung und Entscheidungsfindung nachbilden können.» Künstliche Intelligenz (KI) wird oft synonym mit dem englischsprachigen Begriff Artificial Intelligence (AI) verwendet.

41% der Schweizer Führungskräfte sehen KI als Chance.

Gemäss einer Studie von MISTREND (2023) sind 41% der Manager in der Schweiz positiv gestimmt, wenn es um die Möglichkeiten und den Einsatz von KI in Unternehmen geht. Die Automatisierung von Routineaufgaben führt zu effizienteren Arbeitsabläufen in Unternehmen. KI ermöglicht Personalisierung, wie beispielsweise die Anpassung von Produkten und Dienstleistungen an individuelle Bedürfnisse. Datenanalyse wird dank KI so leicht wie nie zuvor.

32% der Schweizer Bevölkerung stuft KI als Gefahr ein.

Wo Chancen sind, da sind auch Risiken. 32% der Schweizer Bevölkerung verbinden mit dem Einsatz von KI hohe Risiken, wie die Studie von MISTREND (2023) zeigt. Im Vergleich zu 2020 ist die Schweizer Bevölkerung im Jahr 2023 weniger optimistisch. Fast doppelt so viele nennen KI eine Gefahr. Während 18% der Befragten im Jahr 2020 angaben, dass KI eine Gefahr darstellt, kommen 32% der Befragten im Jahr 2023 zu diesem Schluss. Effizienzsteigerung kann zu Arbeitsplatzverlust führen, Datenanalyse kann fehlerhaft sein und KI-Systeme können unfaire Entscheidungen treffen.

Bis heute gibt es keine offizielle Definition von künstlicher Intelligenz. Economiesuisse definiert diese als «Entwicklung von Computern oder Maschinen, die kognitive Fähigkeiten wie Lernen, Problemlösung und Entscheidungsfindung nachbilden können.» Künstliche Intelligenz (KI) wird oft synonym mit dem englischsprachigen Begriff Artificial Intelligence (AI) verwendet.

41% der Schweizer Führungskräfte sehen KI als Chance.

Gemäss einer Studie von MISTREND (2023) sind 41% der Manager in der Schweiz positiv gestimmt, wenn es um die Möglichkeiten und den Einsatz von KI in Unternehmen geht. Die Automatisierung von Routineaufgaben führt zu effizienteren Arbeitsabläufen in Unternehmen. KI ermöglicht Personalisierung, wie beispielsweise die Anpassung von Produkten und Dienstleistungen an individuelle Bedürfnisse. Datenanalyse wird dank KI so leicht wie nie zuvor.

32% der Schweizer Bevölkerung stuft KI als Gefahr ein.

Wo Chancen sind, da sind auch Risiken. 32% der Schweizer Bevölkerung verbinden mit dem Einsatz von KI hohe Risiken, wie die Studie von MISTREND (2023) zeigt. Im Vergleich zu 2020 ist die Schweizer Bevölkerung im Jahr 2023 weniger optimistisch. Fast doppelt so viele nennen KI eine Gefahr. Während 18% der Befragten im Jahr 2020 angaben, dass KI eine Gefahr darstellt, kommen 32% der Befragten im Jahr 2023 zu diesem Schluss. Effizienzsteigerung kann zu Arbeitsplatzverlust führen, Datenanalyse kann fehlerhaft sein und KI-Systeme können unfaire Entscheidungen treffen.

Umgang mit KI fordert Verantwortung

Der verantwortungsvolle Umgang mit künstlicher Intelligenz ist herausfordernd. Regelmässige Qualitätskontrollen, hohe Sicherheitsstandards und menschliche Überwachung sind wichtig. Letztendlich müssen Unternehmen wie Privatpersonen sich mit ihren Rechten auseinandersetzen sowie ein Bewusstsein für die Risiken von künstlicher Intelligenz entwickeln, um aktiv dagegen vorgehen zu können.

Machen Sie sich bereit für das neue Schweizer Datenschutzgesetz (nDSG)

Unsere praxisnahem Kurse bereiten Datenschutzverantwortliche kompakt auf die Umsetzung der neuen Datenschutzbestimmungen in Ihrer Organisation vor.

  • Das neue Schweizer Datenschutzgesetz («NDSGT») (1 Tag)
    Anhand von Praxisbeispielen lernen Sie die neuen datenschutzrechtlichen Anforderungen kennen und verstehen, wo es in Ihrer Organisation Handlungsbedarf gibt. Mehr Info & Termine
  • Umsetzung des neuen Schweizer Datenschutzgesetzes («NDSG») (2 Tage)
    Nach diesem Kurs sind Sie in der Lage, die datenschutzrechtlichen Bestimmungen in Ihrer Organisation umzusetzen und Datenschutzrisiken zu identifizieren und reduzieren. Mehr Info & Termine
  • AI & Compliance («AICOMP») (1 Tag)
    In diesem Kurs erhalten Sie Einblicke in die zentralen rechtlichen Rahmenbedingungen zur Künstlichen Intelligenz (AI Act), unlauterem Wettbewerb, Datenschutz (GDPR, Schweizer Datenschutzgesetz) sowie Urheberrecht und geistigem Eigentum. Die vermittelten Grundlagen bieten Orientierung im regulatorischen Umfeld und verdeutlichen entscheidende Aspekte für den rechtskonformen Einsatz neuer Technologien und die sichere Datenverarbeitung. Mehr Info & Termine

Unsere praxisnahem Kurse bereiten Datenschutzverantwortliche kompakt auf die Umsetzung der neuen Datenschutzbestimmungen in Ihrer Organisation vor.

  • Das neue Schweizer Datenschutzgesetz («NDSGT») (1 Tag)
    Anhand von Praxisbeispielen lernen Sie die neuen datenschutzrechtlichen Anforderungen kennen und verstehen, wo es in Ihrer Organisation Handlungsbedarf gibt. Mehr Info & Termine
  • Umsetzung des neuen Schweizer Datenschutzgesetzes («NDSG») (2 Tage)
    Nach diesem Kurs sind Sie in der Lage, die datenschutzrechtlichen Bestimmungen in Ihrer Organisation umzusetzen und Datenschutzrisiken zu identifizieren und reduzieren. Mehr Info & Termine
  • AI & Compliance («AICOMP») (1 Tag)
    In diesem Kurs erhalten Sie Einblicke in die zentralen rechtlichen Rahmenbedingungen zur Künstlichen Intelligenz (AI Act), unlauterem Wettbewerb, Datenschutz (GDPR, Schweizer Datenschutzgesetz) sowie Urheberrecht und geistigem Eigentum. Die vermittelten Grundlagen bieten Orientierung im regulatorischen Umfeld und verdeutlichen entscheidende Aspekte für den rechtskonformen Einsatz neuer Technologien und die sichere Datenverarbeitung. Mehr Info & Termine

Autor/in

Digicomp