
Responsible AI – Transparente KI-Transformation
KI stößt bei Menschen weiterhin auf Vorbehalte und Unsicherheiten. Unternehmen müssen Vertrauen schaffen, für eine erfolgreiche KI-Transformation!
Generative AI Modelle wie ChatGPT bieten im Unternehmenskontext zahlreiche Anwendungspotenziale, wie zum Beispiel das Erstellen, Zusammenfassen oder Übersetzen von Texten oder das Schreiben von Programmiercode. Es gehen aber auch einige Risiken mit der Anwendung von solchen Programmen einher.
Kommende Regulierungen sollen diesen Risiken entgegenwirken und die verantwortungsvolle Anwendung von KI sicherstellen.
Die Frage nach genauen Handlungsempfehlungen für Unternehmen, die KI schon jetzt nutzen wollen, bleibt jedoch offen.
Aus diesem Grund fassen wir die wichtigsten Aufgabenbereiche zusammen, mit denen sich Unternehmen beschäftigen sollten, um die Risiken von KI mitigieren zu können und bestmöglich von den Potenzialen der Technologie zu profitieren.
Insbesondere seit der Veröffentlichung von ChatGPT durch Open AI werden die Themen Künstliche Intelligenz und Generative AI intensiv wie nie zuvor diskutiert. ChatGPT ist ein sogenanntes Large Language Model (LLM), welches es Nutzer:innen ohne technische Vorkenntnisse ermöglicht, die Potenziale Künstlicher Intelligenz vielfältig zu nutzen. Die unzähligen Anwendungsszenarien des Modells, wie zum Beispiel das Generieren und Zusammenfassen von Texten oder das Erstellen von Programmiercode, vereinfachen den Arbeitsalltag, kommen aber nicht ohne Herausforderungen. So können Programme wie ChatGPT fehlerhafte Antworten generieren oder „halluzinieren“.
Das liegt daran, dass LLMs stets versuchen, Antworten auf gestellte Fragen zu liefern, selbst dann, wenn sie nur über begrenzte Informationen verfügen. Da aktuelle LLMs sehr gut darin sind, die menschliche Sprache zu imitieren und logisch zu formulieren, ist es für Nutzer naheliegend, den Aussagen der Modelle zu vertrauen. Außerdem können durch die Verwendung von Generative AI ungewollt sensible Informationen verbreitet werden, was das Beispiel eines Mitarbeiters eines großen Technologieunternehmens verdeutlicht. Dieser hatte internen Code und andere zu schützende Informationen in ChatGPT überführt, wodurch diese nun zur Datenbasis des Modells gehören und damit potenziell für andere zugänglich sind.
Wie jedes Modell für maschinelles Lernen kann auch ChatGPT für Verzerrungen anfällig sein, die sich in seinen Antworten widerspiegeln können. Verzerrungen können durch die Daten entstehen, die zum Trainieren des Modells verwendet wurden, sowie durch das Design und die Implementierung des Algorithmus.
Die Risiken verdeutlichen, dass der Einsatz von Generative AI besonderer Aufmerksamkeit bedarf, um eine sichere und vertrauenswürdige Anwendung zu gewährleisten.
In den aktuellen Diskussionen zur Mitigierung der Risiken von Generative AI rückt besonders die Frage nach einer angemessenen Regulierung in den Vordergrund. Im Mittelpunkt steht dabei die kommende KI-Verordnung der Europäischen Union, der EU AI Act, welcher KI-Systeme zukünftig basierend auf ihrer jeweiligen Risikokategorie regulieren soll. Dabei wird insbesondere die Frage diskutiert, ob ChatGPT als Hochrisiko-KI einzustufen ist.
Unabhängig von der KI-Regulierung wurde unter den bestehenden Datenschutzregeln ChatGPT in Italien zeitweise verboten. Hohe Wellen hat auch der Vorschlag einiger KI-Experten geschlagen, der vorsieht, KI-Entwicklungen zu pausieren, bis ausreichende Sicherheitsstandards und regulierende Maßnahmen in Kraft treten. Dabei stellt sich die Frage, ob ganzheitliche Verbote oder die zeitweise Pausierung eine angemessene Lösung darstellen. Im internationalen Wettbewerb würde ein rein europäisches Verbot bedeuten, den Anschluss zu verlieren, da die USA und China bereits heute Vorreiter auf dem Gebiet sind und ihren Vorsprung weiter ausbauen könnten.
Die Technologie „richtig“ zu nutzen ist also das Gebot der Stunde: Es stellt sich die Frage, wie wir die Innovation richtig nutzen und chancenorientiert bewusste Risiken eingehen, um im globalen Innovationswettbewerb zu bestehen. Mehr als Verbote benötigen Unternehmen daher Richtlinien und Leitplanken, die einen innovationsfördernden, gleichzeitig aber auch verantwortungsvollen Umgang mit Generative AI ermöglichen.
Für Unternehmen ergeben sich einige Handlungsbedarfe hinsichtlich der Anwendung von Generative AI. Folgende Punkte sollten Unternehmen dabei mindestens in Betracht ziehen, um von den Potenzialen profitieren zu können, ohne dabei Risiken aus den Augen zu verlieren.
Unternehmen sollten konkrete Vorgaben und Richtlinien zur Nutzung von Generative AI definieren. Beispielsweise mit Blick auf die Unternehmensstrategie, den Umgang und vor allem das Erkennen von Deep Fakes, oder in welchen Unternehmensbereichen und für welche Zwecke (beispielsweise zur Textgenerierung oder -zusammenfassung, zur Übersetzung, im Kundenservice oder Überarbeitung von Code) die Anwendung solcher Systeme zulässig sein soll. Dabei empfiehlt es sich, die Nutzung von Generative AI auf Basis eines risikobasierten Ansatzes zu bewerten, wobei mindestens die folgenden Bewertungskriterien berücksichtigt werden sollten:
KI stößt bei Menschen weiterhin auf Vorbehalte und Unsicherheiten. Unternehmen müssen Vertrauen schaffen, für eine erfolgreiche KI-Transformation!
Erfahren Sie alles Wissenswerte über die europäische KI-Regulierung und wie PwC Sie bei der erfolgreichen Integration von KI unterstützen kann.
Artificial Intelligence (AI) systems are vulnerable to Adversarial attacks which reduces their robustness and raises concerns about security.
Wir unterstützen Sie bei der Implementierung umfassender MLOps-Praktiken und stellen somit den Erfolg und Nutzen Ihrer KI-Vorhaben sicher.