Von Hendrik Reese, Jan-Niklas Nieland und Daan Herpers. Künstliche Intelligenz (KI) ist nicht nur eine technologische Innovation. KI gestaltet die Interaktion zwischen Mensch und Maschine sowie den Umgang mit Daten fundamental neu. Mit der zunehmenden Reichweite und den Auswirkungen auf die Gesellschaft wird die ethische Verantwortung bei der Entwicklung von KI immer wichtiger und das unabhängig von spezifischen Branchen. In diesem sich rasant verändernden Umfeld, in dem die Anwendungsfälle grenzenlos erscheinen, stehen wir an einem entscheidenden Wendepunkt.
Angesichts der transformativen Auswirkungen von KI sind wir gefordert, über viele ethische Fragen nachzudenken: Wie stellen wir in KI-Systemen Fairness und Vertrauenswürdigkeit sicher? Wie minimieren wir Bias und Diskriminierung? Wie schützen wir die Privatsphäre des Einzelnen bei der Interaktion mit datenintensiven Vorgängen? Wie verhindern wir Missbrauch und die Nutzung von KI zu böswilligen Absichten?
Bei der Auseinandersetzung mit der verantwortungsvollen Entwicklung und Nutzung von KI müssen wir die spezifischen Chancen und Herausforderungen im Bereich der generativen KI (GenAI) betrachten. GenAI repräsentiert die neueste Entwicklungswelle in den Bereichen KI und Digitalisierung und besitzt die Fähigkeit, Muster großer Datensätze zu analysieren und zu erlernen, um neue Inhalte mit vergleichbarer Struktur zu erzeugen Dies zeigt sich u.a. beim Einsatz der großen Sprachmodelle (Large Language Models, kurz LLMs), die kohärente und kontextuell relevante Sprache generieren. GenAI zeichnet sich durch erhebliche Verbesserungen gegenüber anderen Formen von KI aus, insbesondere in Bezug auf die Flexibilität bei Eingabe und Ausgabe. Dies hat zur Entwicklung vieler beliebter Tools für den Verbrauchermarkt geführt. Während Netflix 3,5 Jahre brauchte, um 1 Million Nutzer zu erreichen, schaffte ChatGPT diesen Meilenstein in nur 5 Tagen.
Die Fähigkeit von GenAI, diverse Ergebnisse in verschiedenen Branchen und Ländern zu erzeugen, hat Auswirkungen auf ganze Wirtschaften. Aufgrund dieser Fortschritte ergeben sich eine Vielzahl ethischer Herausforderungen, die bewältigt werden müssen, um sicherzustellen, dass diese zum Wohl der Gesellschaft genutzt werden. Zu diesen gehören Herausforderungen in Bezug auf Bias und Fairness der generierten Inhalte, Fragen des geistigen Eigentums, die Verbreitung von Fehlinformationen und manipulierten Inhalten sowie Fragen der Verantwortlichkeit und Transparenz. Die praktische Umsetzung vertrauenswürdiger Lösungen für diese vielschichtigen Probleme ist daher nicht nur eine moralische Verpflichtung, sondern auch unverzichtbar, um sicherzustellen, dass generative KI ihr globales Transformationspotenzial zum Nutzen der Gesellschaft entfalten kann.
Die universelle Funktionalität von GenAI und die daraus resultierende große Basis von Nutzer:innen verstärken die oben genannten ethischen Herausforderungen. Der Ruf nach mehr Transparenz und Verantwortung wird lauter und damit der Wille, die Erklärbarkeit der generierten Ergebnisse zu erhöhen, sodass Fehler, Bias oder böswillige Nutzung sicherer identifiziert werden können. Transparente GenAI-Systeme ermöglichen es allen Stakeholdern, zu verstehen, wie ihr Inhalt generiert wird und helfen, die Grenzen der Systeme zu erkennen. Dadurch wird das Vertrauen der Gesellschaft in GenAI gestärkt.
Die Bedeutung von Transparenz und Verantwortung spiegelt sich auch in den (sich entwickelnden) regulatorischen Rahmenbedingungen wider. Die KI-Verordnung der EU legt hierbei Transparenzanforderungen fest. Diese sind abhängig von dem Risiko, das ein System für die Gesellschaft darstellt. Für GenAI bedeutet dies strengere Transparenzverpflichtungen, wie beispielsweise die Veröffentlichung von Informationen über die Trainingsdaten und die Registrierung des Modells in einer EU-Datenbank. Die Standardisierung von KI-Systemen sowohl horizontal als auch sektorspezifisch ist ebenso wichtig. Zuverlässige Rahmenbedingungen geben Industriepartnern die Orientierung, die sie benötigen, um interne Rollen und Prozesse für die Verantwortlichkeit zu etablieren und zu verstehen, welche Informationen mit Stakeholdern geteilt werden müssen. Bevor viele der Verantwortlichkeitsfragen im Bereich GenAI angegangen werden können, müssen wir allerdings ein (Governance-)Ökosystem schaffen, in dem Transparenz gefördert und Verantwortlichkeiten zugewiesen werden.
Die Benutzeroberfläche vieler GenAI-Tools suggeriert, dass KI immer intelligenter wird. Obwohl es den Anscheint erweckt, dass diese Tools die menschliche Intelligenz übertreffen können, benötigen diese weiterhin Daten von uns als Referenz, um das zum Ausdruck zu bringen, was wir als intelligentes Verhalten bezeichnen. Diese Modelle lernen aus großen Datensätzen, die häufig unbewusste Bias (z. B. in Bezug auf Rasse, Geschlecht oder Alter) widerspiegeln, die im menschlichen Verhalten und in der Gesellschaft verankert sind. KI-Modelle, die sich ausschließlich auf historische Daten stützen, setzen diese Bias in den von ihnen generierten Ergebnissen fort, was schädliche Stereotypen und Diskriminierung verstärken kann. Ein Beispiel sind Recruiting-Algorithmen, die männliche Bewerber für technische Positionen bevorzugen, weil sie aus den Daten lernen, dass diese Positionen oft von Männern besetzt werden. Ein solches System nutzt Vorurteile in unserer Welt und macht das Geschlecht des Bewerbers zu einem entscheidenden Faktor, ohne dies den Nutzer:innen des Systems transparent aufzuzeigen. Aus diesem Grund ist es wichtig, Transparenz und Erklärbarkeit zu gewährleisten, unterschiedliche und repräsentative Datensätze zu verwenden und verzerrte Datenpunkte zu identifizieren und zu korrigieren. Techniken wie Bias Elimination und Adversarial Training können eingesetzt werden, um Bias zu reduzieren und die Fairness der Ergebnisse zu verbessern.
Fairness-Tests sind für die Ausgaben oder Entscheidungen eines Modells von entscheidender Bedeutung, um sicherzustellen, dass die Ergebnisse frei von Bias sind. Wenn ein Modell eine Entscheidung trifft, sollte es keine Kategorie sensibler personenbezogener Daten gegenüber einer anderen bevorzugen, z. B. das Geschlecht eines Bewerbenden bei der Bewertung von Bewerbungen. Die Bias, die zu einer ungerechten Behandlung von Personen führen, sind für die Nutzer:innen des Systems nicht sichtbar, da unklar ist, welche Faktoren zu den Ausgaben des KI-Systems geführt haben. Darüber hinaus ist Fairness kein numerischer Wert, der leicht gemessen werden kann, sondern eine Interpretation der vorliegenden Ergebnisse. Aus diesem Grund sind allgemeine ethische Standards als Leitlinien für die Entwicklung und Bewertung der Fairness eines KI-Modells erforderlich, die in Form von Verhaltenskodizes vorliegen können. Darüber hinaus sollten Modellausgaben sorgfältig überwacht und auf Unterschiede zwischen verschiedenen relevanten Gruppen getestet werden. Metriken für die Fairness des maschinellen Lernens, wie demografische Parität, Chancengleichheit und Chancengerechtigkeit, können zur Bewertung und Verbesserung der Fairness herangezogen werden. Darüber hinaus sollten Standards für die Korrektur von Bias beim Training von Modellen festgelegt werden. Da diese Fragen auch die menschliche Seite der Entwicklung betreffen, ist es wichtig, einen Dialog mit Expert:innen und den betroffenen Gemeinschaften zu führen, um potenzielle Fairness-Probleme zu identifizieren und zu lösen.
Der Umgang mit Bias und Fairness spielt eine zentrale Rolle beim Einsatz von GenAI, da deren Modelle oft intransparent sind und als Blackbox fungieren. Während Input (Daten) und Output (generierte Inhalte) sichtbar sind, sind die internen Prozesse komplex, undurchsichtig und größtenteils verborgen. Dies stellt eine erhebliche Hürde für Vertrauen, Verantwortlichkeit und den Umgang mit Bias dar. Aus diesem Grund ist es unerlässlich Maßnahmen zu etablieren, die die Erklärbarkeit - also die Fähigkeit eines bestimmten Modells die Entscheidungsfindung zu beschreiben - fördern. Um die Erklärbarkeit zu verbessern, müssen Modellarchitekturen für relevante Stakeholder interpretierbar sein. Sogenannte "Erklärbarkeitsalgorithmen" können implementiert und Transparenzmerkmale übernommen werden. Das Öffnen der GenAI-Blackbox durch den Einsatz geeigneter Tools sollte auch die Gestaltung intuitiver Benutzeroberflächen beinhalten, um eine sinnvolle Erklärbarkeit für die vielfältige Basis an Nutzer:innen, zu schaffen.
Um Bias- und Fairness-Probleme in GenAI anzugehen, müssen robuste Modelle entwickelt werden. Die Ergebnisse sollten überwacht werden und es müssen Mechanismen für Feedback und Reportings vorhanden sein, um die Verstärkung schädlicher oder verzerrter Inhalte zu verhindern. Da nicht alle KI-Modelle das gleiche Risikopotenzial aufweisen, müssen Anwendungsfälle individuell bewertet werden, beispielsweise durch den risikobasierten Klassifizierungsansatz der europäischen KI-Verordnung. KI-Systeme, die erhebliche Auswirkungen auf den Menschen haben oder in kritischen Infrastrukturen eingesetzt werden, müssen strengere Anforderungen erfüllen. Neben verbindlichen KI-spezifischen Gesetzen versuchen Rahmenwerke wie das AIC4 des BSI in Deutschland, das AI Risk Management Framework des National Institute of Standards and Technology (NIST) in den USA oder der Microsoft Responsible AI Standard, messbare Standards für die verantwortungsvolle Entwicklung und Nutzung von KI-Systemen zu setzen.
Um einen verantwortungsvollen Einsatz von GenAI in Unternehmen zu gewährleisten, sind konkrete Spezifikationen und unternehmensweite Richtlinien von entscheidender Bedeutung. Solche Richtlinien helfen, zulässige Anwendungsbereiche und Zwecke (zum Beispiel für die Generierung oder Zusammenfassung von Texten, für Übersetzungen, im Kundenservice oder für die Überarbeitung von Codes) zu definieren und Risikopotenziale solcher Systeme zu identifizieren. Richtlinien sollten klare Verantwortlichkeiten und Transparenzanforderungen festlegen. Ein weiterer wichtiger Faktor, der berücksichtigt werden muss, ist das Vertrauen interner und externer Stakeholder in den Einsatz von GenAI in einem Unternehmen sowie die für den spezifischen KI-Anwendungsfall relevante regulatorische Landschaft.
Um einen verantwortungsvollen Umgang mit GenAI innerhalb der Belegschaft sicherzustellen, ist es wichtig, die Mitarbeitenden über die Chancen und die Risiken aufzuklären, die sich aus der Anwendung von GenAI ergeben können, wie beispielsweise Reputationsschäden, rechtliche Fragen oder Sicherheitsbedenken. Die Mitarbeitenden sollten auch über Möglichkeiten zur Qualitätsverbesserung geschult werden, z. B.Prompt Engineering, um eine produktive Nutzung zu ermöglichen, sowie über die Schwachstellen des Systems, damit die Mitarbeitenden die Notwendigkeit einer unabhängigen Überprüfung und die Gefahren der Offenlegung sensibler Informationen verstehen. Wenn möglich, sollten Mitarbeitende in die Reflexion und Gestaltung der verwendeten GenAI-Tools einbezogen werden, da sie über das notwendige Wissen verfügen können, wie solche Tools eingesetzt werden sollten.
In der externen Kommunikation ist ein Verhaltenskodex, der Kunden und anderen Stakeholdern zugänglich ist, hilfreich, um das Vertrauen zu stärken. In diesem Verhaltenskodex können Unternehmen Informationen bereitstellen und erklären, in welchen Bereichen GenAI verwendet wird und in welchen nicht. Darüber hinaus ist es ratsam, offenzulegen, welche Inhalte oder sonstige Ausgaben mit Hilfe eines GenAI-Modells erstellt wurden und wann Kunden aktiv mit einem System interagieren, zum Beispiel in Form eines Chatbots. Feedback von externen Stakeholdern kann notwendig sein, um Anwendungen zu optimieren und nutzerzentrierte Dienste anzubieten.
Regulierungsbehörden spielen eine wesentliche Rolle bei der Durchsetzung vertrauenswürdige KI-Praktiken. Neben diesen organisatorischen Anstrengungen zur Gewährleistung einer verantwortungsvollen Nutzung von GenAI sollte die Regulierung die Durchsetzung gesellschaftlicher Werte unterstützen, Innovationen fördern und bewährte Verfahren bereitstellen. Der regelmäßig stattfindende AI Safety Summit ist ein Beispiel für derartige Bemühungen, um die internationale Zusammenarbeit bei der Regulierung von Anwendungen wie GenAI festzulegen. Die Grenzenlosigkeit von GenAI kann nur durch eine solche Zusammenarbeit sinnvoll angegangen werden.
Dennoch werden Gesetze und Vorschriften allein wahrscheinlich nicht ausreichen, um den potenziellen Risiken von GenAI zu begegnen, insbesondere in Bezug auf Cyberangriffe, Hacker oder gefälschte Inhalte. Unternehmen können sich daher nicht allein auf zukünftige Regelungen wie die KI-Verordnung der EU oder die KI Bill of Rights aus den USA verlassen, sondern müssen eigene Sicherheitsmaßnahmen und Standards für den verantwortungsvollen Einsatz von KI implementieren. Standards für vertrauenswürdige GenAI-Anwendungen können Unternehmen Wettbewerbsvorteile ermöglichen, Zertifizierungsmöglichkeiten schaffen und damit das Vertrauen der Öffentlichkeit in GenAI-Lösungen stärken. Die Zusammenarbeit zwischen dem öffentlichen und dem privaten Sektor ist nach wie vor von entscheidender Bedeutung für die Gestaltung einer Zukunft, in der vertrauenswürdige Praktiken fest in die KI-Innovation integriert sind.
Unsere Rolle besteht darin, Ihnen dabei zu helfen, sich in diesem komplexen Geflecht aus Wirtschaft, Regulierung und Technologie zurechtzufinden. Wir vereinen dafür unsere Branchenexpertise mit wertvollen Erkenntnissen und Erfahrungen, um ein ganzheitliches Bild und handlungsorientierte Best Practices zu schaffen und Ihre KI-Transformation so auf vertrauenswürdige und verantwortungsvolle Weise voranzutreiben. Unser bewährtes KI-Governance-Framework umfasst alle relevanten Phasen von der Entwicklung bis zum Betrieb und dem verantwortungsvollen Einsatz. Wir nutzen unser branchenweites Netzwerk, um Ihnen nicht nur dabei zu helfen, modernste Anwendungsfälle in Ihrem Unternehmen zu etablieren, sondern sie auch auf vertrauenswürdige Weise anzuwenden.