Die künstliche Intelligenz (Wikipedia) entwickelt sich mit zunehmender Computer-Rechenkapazität immer schneller. Was hat es damit auf sich? Welche Relevanz hat dies für den Datenschutz? Es gibt eine Reihe von Problemen, die durch den Einsatz von KI-Anwendungen entstehen können.
Hier sind einige Beispiele:
Die Rechtmäßigkeit der (Daten-) Verarbeitung
Woher kommen die zu lernenden Daten? Wurden sie datenschutzkonform erhoben? Oder grast der KI-Betreiber ganz einfach alle Datenbestände ab, derer er habhaft werden kann? Fließen personenbezogene Daten von allen (privaten) Websites und öffentlichen zugänglichen Sozialen Netzwerken ein? Das ist besonders für US-amerikanische Bürger problematisch, denn deren privatesten Daten sind in erschreckendem Maße käuflich zu erwerben. Dies betrifft nicht nur Texte, sondern auch Bilder; niemand kann verhindern, dass das eigene Profilbild nicht irgendwann in (mehr oder weniger abgewandelter Form) in ungewünschtem Kontext auftaucht. Die Frage nach der Zulässigkeit der (Daten-) Verarbeitung gemäß Artikel 6 und Artikel 9 gilt es also zu klären.
KI-Systeme sind nur so gut wie die Daten, auf denen sie trainiert werden. Wenn die Daten beispielsweise unvollständig oder ungleichmäßig sind, können KI-Systeme ungenaue oder diskriminierende Ergebnisse liefern.
Müll rein – Müll raus
Wer stellt die Qualität der zu lernenden Daten sicher? KI-Systeme müssen in der Lage sein, große Mengen an Daten zu verarbeiten, um nützliche Ergebnisse zu liefern. Dies kann jedoch Bedenken hinsichtlich des Datenschutzes aufwerfen, da KI-Systeme auf sensible persönliche Daten zugreifen können. Ein prominentes Beispiel dafür war das Bewerber-Expertensystem bei Google und Amazon, welche die Vorurteile der Personalabteilung übernahm und einen entsprechenden Output lieferte. Deswegen fand es letztlich keine Anwendung. Ein KI-System lernt also auch die Stereotypen und Vorurteile. Der Grundsatz der „Rechtmäßigkeit, Treu und Glauben und Transparenz“ des Artikel 5 (1a) liegt hier in weiter Ferne.
Ethik
KI-Systeme können ethische Fragen aufwerfen, insbesondere wenn es darum geht, wie sie Entscheidungen treffen. Zum Beispiel kann es problematisch sein, wenn ein KI-System Entscheidungen trifft, die die Gesundheit oder Sicherheit von Menschen beeinträchtigen könnten. Es ist der Reiz und gleichermaßen die Gefahr von KI-Systemen, dass sie auch bei einem absolut neuen Input funktionieren und einen (mehr oder weniger plausiblen) Output liefern können. Positiv ausgedrückt können KI-Systeme generalisieren. Negativ ausgedrückt können sie halluzinieren. Das Gebot der Richtigkeit von Daten gemäß Artikel 5 kann ein KI-System niemals erfüllen, denn es kennt die Wahrheit nicht und hat im Kern nicht die geringste Ahnung, was es eigentlich gelernt hat.
Fehlinterpretation
KI-Systeme können komplexe Daten schnell verarbeiten, aber es kann schwierig sein, sicherzustellen, dass sie diese Daten korrekt interpretieren. Fehlinterpretationen können zu falschen Schlussfolgerungen und Entscheidungen führen. Die menschlichen Nutzer der KI-Systeme benötigen eine große Portion an Kompetenz und kritischem Denken. Ein gutes Negativ-Beispiel findet sich HIER, wo ChatGPT zu seinem eigenen Umgang mit personenbezogenen Daten befragt wird… doch ChatGPT ist ein „Wortgenerator“ und hat kein echtes Verständnis der sachlichen Zusammenhänge. Die Software kennt keine Fakten und Zusammenhänge. Wer das nicht versteht, der hat ein Problem.
Auswirkung auf die Arbeitswelt
Eine wachsende Anzahl von Aufgaben wird durch KI-Systeme automatisiert, was zu Arbeitsplatzverlusten und einer Verlagerung von Arbeitskräften auf andere Aufgaben führen kann. Im April 2023 erscheinen die ersten Studien (HIER und HIER), die berechnen, wie viele hunderttausende Arbeitsplätze wohl durch die KI entfallen werden. Ein US-amerikanisches IT-Magazin hat Fachartikel von einem KI-System schreiben lassen, ohne dies Publik zu machen. In einer zukünftigen Arbeitswelt werden wir kaum noch beurteilen können, ob Texte/Bilder/Gesprächsbeiträge von einem fachkundigen Menschen stammen oder von einer KI frei „halluziniert“ werden. Man kann nur hoffen, dass es eine Kennzeichnungspflicht für KI-generierte Inhalte geben wird.
FAZIT:
Im Zentrum der Aufmerksamkeit stehen die „Künstlichen Neuronalen Netze“ (KNN). Es sind Computerprogramme, deren Algorithmen jede Art von Daten erlernen können. Immer geht es darum, dass ein bestimmter Input zu einem bestimmten Output führt. Die KNN-Algorithmen folgen dem biologischen Vorbild von Gehirnen, wo viele (Milliarden) Neuronen untereinander verbunden sind. Die Verbindungen zwischen diesen Neuronen können sich ändern… und das bezeichnen wir als „lernen“. Das Problem dabei: Letztlich ist das KNN als Ganzes eine Blackbox - genauso wie ein biologisches Gehirn. Die Kenntnis der einzelnen Parameter ist sinnlos, denn nur deren komplexes Zusammenspiel bringt das gewünschte Ergebnis. Es ist also kaum vorherzusagen welchen Output ein KNN auf einen neuen Input bringt; man muss sich in jedem einzelnen Fall überraschen lassen.
------------------------------------------------------------------------
„Copyright: Bitte beachten Sie das Urheberrecht dieses Blog-Beitrags. Sie sind nicht befugt den Wortlaut für eigene Publikationen zu nutzen. Das Urheberrecht der Original- Inhalte liegt bei DSB-MIT-SYSTEM®, im Rahmen des Datenschutz-Praxisleitfadens PrivazyPlan®.“