Ein zentrales Problem der KI ist die Frage der Kontrolle. Die meisten heutigen KI-Systeme sind so konzipiert, dass sie selbstständig lernen und Entscheidungen treffen können, ohne dass menschliche Intervention erforderlich ist. Dies kann zu unerwünschten Ergebnissen führen, wenn das KI-System Entscheidungen fällt, die nicht im Interesse der Menschen sind. Ein Beispiel dafür ist das sogenannte "algorithmische Bias". Hier geht es um algorithmische Vorurteile, die zu unfairen oder benachteiligenden Behandlungen von Personen aufgrund von Ethnie, Einkommen, Geschlecht oder Ähnlichem führen können – beispielsweise in Bewerbungsverfahren.
Ein weiteres Risiko der Künstlichen Intelligenz ist, dass sich Cyberkriminelle Schwachstellen in Algorithmen zunutze machen und Daten manipulieren, um bösartige Handlungen vorzunehmen. KI-Systeme, wie beispielsweise Chat GPT, könnten für kriminelle Zwecke eingesetzt werden, zum Beispiel, um Benutzerdaten zu stehlen bzw. zu löschen. Auch Datenschutzverletzungen sind vorprogrammiert: KI-Systeme erfordern große Mengen an Daten, um zu funktionieren, was bedeutet, dass sie möglicherweise auch auf sensible Informationen zugreifen können. Zudem geben die Programme in der Regel keine Quelle an, was es erschwert, die Ergebnisse zu validieren und zu Falschaussagen mit rechtlichen Konsequenzen führen kann.
Je mehr KI-Programme eingesetzt werden, desto mehr greifen sie in die Lebenswirklichkeit der Menschen ein. Die Programme sammeln immer mehr Daten und können damit Nutzerprofile erstellen, die Informationen über deren Verhaltensweisen, Vorlieben und Interessen enthalten. Diese Informationen lassen sich von Unternehmen, Regierungen oder anderen Dritten einsetzen, um gezielte Werbung, Überwachung oder andere Zwecke zu betreiben.
„Es ist wichtig, die Risiken der Künstlichen Intelligenz ernst zu nehmen und sicherzu-stellen, dass KI-Systeme sicher und ethisch einwandfrei sind. Es muss gewährleistet werden, dass die Vorgaben der DSGVO rechtskonform umgesetzt werden. Zudem muss die Verarbeitung personenbezogener Daten so gestaltet sein, dass nur Befugte auf Daten, IT-Systeme und Prozesse zugreifen können und diese nicht verfälscht werden können“, sagt Ulrich Heun, Geschäftsführer bei CARMAO.
Verantwortung übernehmen – dann ist KI eine große Chance
„KI ist noch lange nicht am Leistungsgipfel angekommen. Sie wird einige Bereiche des Lebens und Arbeitens revolutionieren und Menschen entlasten. Sowohl Politik und Wirtschaft als auch die Gesellschaft sind jedoch gefordert, einen verantwortungsvollen Umgang mit der Künstlichen Intelligenz zu fördern. Es gilt, sicherzustellen, dass die Chancen der Technologie für die Gesellschaft genutzt werden können, ohne dabei die Risiken aus den Augen zu verlieren“, erklärt Ulrich Heun.
Die 2003 gegründete CARMAO GmbH mit Hauptsitz in Limburg a. d. Lahn bietet Beratung, Projektdurchführungen, Dienstleistungen und Seminare an. Die Schwerpunkte liegen dabei in den Bereichen Organisationale Resilienz nach ISO 22316, Informationssicherheit, Risikomanagement, Business Continuity Management (BCM), Datenschutz und Compliance, Sicherheit im Datacenter u. v. m. Der Leistungsumfang erstreckt sich von der Business-Analyse und Marktforschung über die Lösungsentwicklung und -implementierung bis zum Kompetenztransfer durch die Schulungsangebote der „Academy for Organizational Resilience“.
CARMAO befähigt Unternehmen unter anderem dazu, eine organisationale Widerstandsfähigkeit aufzubauen und dabei die Möglichkeiten der Digitalisierung sicher und flexibel zu nutzen. Zum Kundenstamm gehören öffentliche Verwaltungen, Konzerne, kleine und mittelständische Unternehmen unterschiedlicher Branchen. www.carmao.de
CARMAO GmbH
Fahrgasse 5, Walderdorffer Hof
65549 Limburg
Telefon: +49 (6431) 2196-0
Telefax: +49 (6431) 2196-109
http://www.carmao.de
Marketing Management
Telefon: +49 (6431) 2196-0
E-Mail: stefanie.raven@carmao.de
Pressekontakt
Telefon: +49 (211) 9717977-0
E-Mail: pr@punctum-pr.de