In den letzten Jahren haben KI-Technologien rasante Fortschritte gemacht und werden bereits in den unterschiedlichsten Ausprägungen in Wirtschaft, Industrie oder der Medizin sowie vielen anderen Bereichen eingesetzt. Im Fokus stehen häufig die Vorteile, welche KI unbestritten mit sich bringt: So kann der Einsatz von KI-Technologien im Gesundheitswesen etwa bei Menschen mit Seh- oder Hörbehinderungen Wahrnehmungseinschränkungen ausgleichen. Ein weiteres, weit verbreitetes Einsatzgebiet ist personalisierte Werbung, die etwa auf das persönliche Profil von Nutzerinnen und Nutzern von Social-Media-Plattformen zugeschnitten ist.
Wenn personalisierte Werbung allerdings in Abhängigkeit von psychometrisch ermittelten Persönlichkeitseigenschaften individualisiert, also mittels »Micro-Targeting« ein psychologisches Profil erstellt bzw. die Persönlichkeit eines Menschen digital ausgelesen wird, ist dies durchaus problematisch. Die auf solche Weise erzeugten individualisierten Marketing- oder Wahlkampfbotschaften können Verhaltensmanipulation begünstigen, was in fundamentalem Widerspruch zur Idee menschlicher Selbstbestimmtheit steht. Dies gilt ebenfalls, wenn Algorithmen über Kreditwürdigkeit und Bildungschancen von Menschen »entscheiden« oder selbstlernende Computersysteme täuschend echte Bilder, Texte oder Videos synthetisch erstellen und diese dazu eingesetzt werden, um Menschen zu schaden (»Deepfakes«).
Grundlagen für eine »vertrauenswürdige KI«
Um einem derartigen missbräuchlichen Einsatz vorzubeugen, sollte KI der Idee einer gemeinwohlorientierten Technikentwicklung folgen, die den Erhalt und Ausbau demokratischer Werte und Grundrechte zum Ziel haben. Daher ist es besonders wichtig, schon heute die Grundlagen für eine vertrauenswürdige KI zu legen, gerade weil eine vollständige Transparenz und Kontrolle über KI – so wie auch über andere komplexe Technologien – gar nicht möglich und auch nicht realistisch ist. Dennoch sollten Menschen KI-basierte Entscheidungslogiken verstehen können, weshalb Prinzipien wie Transparenz und Nachvollziehbarkeit eine wichtige Rolle zukommt.
Der vom Fraunhofer ISI koordinierte Forschungsverbund Forum Privatheit hat in diesem Kontext ein Impulspapier zum Thema »Künstliche Intelligenz und Selbstbestimmung« verfasst und dabei 15 Handlungsempfehlungen für eine vertrauenswürdige KI formuliert, welche menschliche Selbstbestimmung trotz Künstlicher Intelligenz nicht nur erhalten, sondern sogar fördern können.
Handlungsempfehlungen
Eine der Empfehlungen lautet, dass algorithmischen Entscheidungssystemen mit Auswirkungen auf das menschliche Zusammenleben demokratisch festgelegte Fairnesskriterien zugrunde liegen müssen. Zudem sollte der Grad an Schutzmechanismen – etwa durch Regulierung seitens des Gesetzgebers – mit steigendem Schädigungspotenzial einer KI zunehmen. Neben verstärkten Pflichten für Produkt- bzw. Technologiehersteller potentiell gefährlicher KI-Anwendungen sollte auch die Vertretung von Betroffeneninteressen gestärkt werden. Zivilgesellschaftliche Initiativen und Intermediäre wie Datenschutz-Aufsichtsbehörden oder Verbraucherschutzorganisationen würden bei einer derartigen Konzeption einerseits Beratung über Risiken durch KI anbieten und andererseits bei der kritischen Bewertung von KI-Anwendungen, ihrer Zertifizierung und der Vertretung von Betroffeneninteressen mitwirken.
Kritische Bewertungskompetenzen stärken
Murat Karaboga, Privacy-Forscher am Fraunhofer ISI und Mitautor des Impulspapiers, unterstreicht: »Künftig sollte die kollektive Beteiligung an der Gestaltung von KI ein stärkeres Gewicht erhalten. Neben der Förderung der kritischen Bewertungskompetenz bei den Verbraucherinnen und Verbrauchern meint dies insbesondere die Stärkung von Einrichtungen wie Datenschutzbehörden oder Verbraucherschutzorganisationen, um unabhängige Kontrollen im KI-Bereich durchführen zu können. Schließlich möchte Deutschland und Europa den so genannten ‚dritten Weg‘ gemeinwohlorientierter KI und nicht den des rein profitorientierten Digitalkapitalismus weltweit dominanter IT-Firmen oder des totalitären Digitalautoritarismus chinesischer Spielart gehen.«
Das Impulspapier ist Teil der Forschungsaktivitäten des Fraunhofer ISI im Bereich Künstliche Intelligenz. Dabei werden die Entwicklung und Implementierung von KI aus einer Innovationsperspektive analysiert. Der KI-Forschung am Fraunhofer ISI liegt ein systemischer Ansatz zugrunde, der die technischen, wirtschaftlichen, politischen und gesellschaftlichen Aspekte in den Blick nimmt und sowohl Potenziale als auch kritische Effekte von KI benennt.
Fraunhofer-Institut für System-und Innovationsforschung (ISI)
Breslauer Straße 48
76139 Karlsruhe
Telefon: +49 (721) 6809-0
Telefax: +49 (721) 689152
http://www.isi.fraunhofer.de
PR & Öffentlichkeitsarbeit
Telefon: +49 (721) 6809-100
E-Mail: anne-catherine.jung@isi.fraunhofer.de