KI Datenschutz

KI – Die rechtliche Dimension & Die Datenschutz-Frage

KI Datenschutz

KI – Die rechtliche Dimension & Die Datenschutz-Frage

KI Datenschutz

KI – Die rechtliche Dimension & Die Datenschutz-Frage

Künstliche Intelligenz wirft in der Geschichte einen überraschend langen Schatten. Schon 1950 hat sich der britische Mathematiker Alan Turing mit seinem „Imitation Game“ mit der Frage auseinandergesetzt, wie man feststellen kann, ob ein Computer ein dem Menschen ebenbürtiges Denkvermögen besitzt. Seitdem hat sich viel getan. Im Jahr 2024 ist KI das Topthema schlechthin und hat den beruflichen und privaten Alltag für Millionen von Menschen bereits jetzt für immer verändert.

Die große Bandbreite der KI-Anwendungen stellen eine einzigartige Möglichkeit dar, die alltäglichen Prozesse in Unternehmen grundlegend zu verändern und zu optimieren. Sie übernehmen repetitive Aufgaben, erleichtern den Kundenkontakt und ermöglichen es menschlichen Mitarbeitern, sich auf komplexere Tätigkeitsbereiche zu konzentrieren.

All das klingt vielversprechend – gäbe es da nicht die andere Seite der Münze. Der wachsende Einsatz von Künstlicher Intelligenz wirft Fragen hinsichtlich Arbeitsplatzverlusten, fehlender Transparenz sowie Datenmissbrauch auf. Ein revolutionäres Tool wie KI geht einher mit einer völlig neuen, rechtlichen Dimension – die wir im Folgenden näher beleuchten werden.

Wenn die Maschine versagt …

Künstliche Intelligenz kann viel, aber nicht alles. Auch ein fortschrittliches System macht Fehler, seien es grammatikalische oder inhaltliche Unstimmigkeiten in einem von ChatGPT in Sekundenschnelle ausgespuckten Text – oder aber Fehltritte mit noch gravierenderen Auswirkungen.

So kommt KI zunehmend mehr in der Diagnose von Krebskrankheiten zum Einsatz und kann anhand von Ultraschallbildern, Computertomographie oder dem MRT Muster erkennen. Doch was, wenn der Computer trotz gründlicher Analyse ein falsches Ergebnis liefert? Stellt ein Arzt eine falsche Diagnose, trägt er die Verantwortung dafür, bei einem KI-System ist es hingegen schwer, festzumachen, wer für das Versagen haftet.

Ein ähnliches Dilemma besteht im Straßenverkehr. Seit der Implementierung von KI hat die Automobilindustrie einen Aufschwung erlebt und autonomes Fahren – was einst nur Science Fiction war – ist zur Realität geworden. Doch auch wenn die Vorstellung von einem selbstfahrenden Auto, das die Reise in den Sommerurlaub oder das Navigieren des hektischen Stadtverkehrs erleichtert, äußerst vielversprechend klingt, kommen auch hier wichtige, rechtliche Fragen auf. Was passiert beispielsweise, wenn man mit seinem autonomen Gefährt einen Unfall verursacht? KI kann selbst nicht die Haftung übernehmen und auch dem Fabrikanten lässt sich in vielen Fällen nicht die Schuld zuweisen, da an den meisten Anwendungen und Systemen mehrere Hersteller beteiligt sind. Es wäre somit logisch, den Benutzer, in obigem Fall also den Fahrer, zur Verantwortung zu ziehen. Ob dies aber wirklich eine richtige und faire Entscheidung ist, bleibt fraglich.

KI, Grundrechte und Datenschutz

KI-Systemen liegen astronomische Mengen an Daten zugrunde – Daten, die es zu schützen gilt. Ein wichtiges Anwendungsgebiet von Künstlicher Intelligenz sind Technologien zur Gesichtserkennung, die vor allem in der Strafverfolgung eingesetzt werden. Vergangenen Herbst konnte die abgetauchte RAF-Terroristin Daniela Klette festgenommen werden, zum Großteil dank der Software PimEyes, die das Netz nach Fotos von gesuchten Personen durchforstet.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Der Einsatz von solch automatischer Gesichtserkennung ist nach wie vor sehr umstritten – und das aus gutem Grund. Denn obwohl Applikationen wie PimEyes die Polizei unterstützen können, stellen sie einen klaren Eingriff in die Grundrechte dar. Schließlich werden bei der Analyse von Daten aus Überwachungskameras viele Menschen erfasst, die unschuldig sind und ohne Einwilligung in Datenbanken gespeichert werden.

Auch Textbots wie ChatGPT oder alltägliche Anwendungen wie die Echo-Geräte von Amazon erweisen sich als Problem für den Datenschutz, da sie oftmals Daten ohne die Zustimmung des Nutzers erfassen. Persönliche Informationen, die von einem generierten Text übernommen werden oder Gespräche in den eigenen vier Wänden – oft registriert KI Daten und Informationen ohne vorige Einwilligung. Hier wird abermals deutlich: KI ist ein doppelschneidiges Schwert und bedarf eines klaren, rechtlichen Rahmens.

Die rechtliche Antwort

Klar ist: Die größte rechtliche Hürde von KI liegt zweifellos in der Verarbeitung von Daten. Generell muss hier zwischen zwei Szenarien getrennt werden: Daten, die zur Weiterentwicklung der Anwendung verwendet werden und Daten, die in der fertig entwickelten Anwendung prozessiert werden. Zwar legt die DSGVO keine Bestimmungen zur Verwendung von KI fest, ist für Unternehmen, die Künstliche Intelligenz in ihre täglichen Prozesse eingebunden haben, aber dennoch relevant.

So muss ein Unternehmen klar kommunizieren, wie und mit welchen KI-Anwendungen personenbezogene Daten verarbeitet werden. Zudem muss sichergestellt werden, dass diese Daten nur für die vorab festgelegten Zwecke gesammelt und verarbeitet werden und die notwendigen Maßnahmen eingesetzt werden, um die Sicherheit der Daten zu gewähren.

 

Sieh dir diesen Beitrag auf Instagram an

 

Ein Beitrag geteilt von tagesschau (@tagesschau)

Den bis dato wichtigsten Schritt in Richtung einer rechtlichen Grundlage für KI stellt der AI-Act dar, der von der Europäischen Union am 13. März verabschiedet worden ist und ab 2026 voll in Kraft treten soll. Dem zufolge sollen KI-Anwendungen in verschiedene Risikogruppen eingeteilt werden. Ist das Risiko der Anwendung unannehmbar, soll diese gänzlich verboten werden. Bei einem hohen Risiko muss hingegen ein Risikomanagement eingerichtet und Prozesse protokolliert und so gestaltet werden, dass sie für den Endnutzer transparent sind. Besteht bei einer KI-Anwendung jedoch nur ein niedriges Risiko, genügt ein Hinweis für den Benutzer, dass die entsprechende Anwendung auf Basis von Künstlicher Intelligenz fungiert.

Wie sich die rechtlichen Dimensionen von KI bis zum vollständigen Wirkungsbeginn des AI-Act und darüber hinaus entwickeln werden, bleibt abzuwarten. Fest steht: Künstliche Intelligenz wird niemanden unberührt lassen. Je früher sich ein Unternehmen oder ein Arbeitnehmer mit ihren Möglichkeiten und Risiken vertraut macht, desto besser ist man für ein von der KI dominiertes Morgen gerüstet.

Highlight-Thema KI beim Customer Focus Summit 2024

Künstliche Intelligenz war in diesem Jahr auch das Leitthema beim Customer Focus Summit. Zum Motto „AI meets Customer Centricity“ referierten eine Reihe an Top-Speakern über aktuelle Entwicklungen im Bereich KI und beschäftigten sich mit der Frage, wie die Zukunft in diesem Bereich aussehen wird. Alle Highlights finden sich in Kürze in der Mediathek.

Titelbild: © Bartek / Adobe Stock

Summit

Der CFS | Customer Focus Summit ist der digitale Fachkongress für Customer Centricity.

Spotlight

Am 13. September geht es weiter mit dem interdisziplinären, hybriden Fachkongress rund um die Mobilität von morgen.

Podcast

Der Customer Focus Podcast „InTouch“, behandelt die aktuellen Entwicklungen rund um den Kunden im Zentrum unternehmerischen Handels.

Partner