Verantwortungsvolle Nutzung von Generative AI

Verantwortungsvolle Nutzung von Generative AI
  • Artikel
  • 6 Minuten Lesezeit
  • 26 Mai 2023

Generative AI Modelle wie ChatGPT bieten im Unternehmenskontext zahlreiche Anwendungspotenziale, wie zum Beispiel das Erstellen, Zusammenfassen oder Übersetzen von Texten oder das Schreiben von Programmiercode. Es gehen aber auch einige Risiken mit der Anwendung von solchen Programmen einher.

Kommende Regulierungen sollen diesen Risiken entgegenwirken und die verantwortungsvolle Anwendung von KI sicherstellen.

Die Frage nach genauen Handlungsempfehlungen für Unternehmen, die KI schon jetzt nutzen wollen, bleibt jedoch offen.

Aus diesem Grund fassen wir die wichtigsten Aufgabenbereiche zusammen, mit denen sich Unternehmen beschäftigen sollten, um die Risiken von KI mitigieren zu können und bestmöglich von den Potenzialen der Technologie zu profitieren.

Ihr Experte für Fragen

Hendrik Reese
Partner für KI Transformation bei PwC Deutschland
E-Mail

Generative AI liefert großes Potenzial, ist aber mit Risiken verbunden

Insbesondere seit der Veröffentlichung von ChatGPT durch Open AI werden die Themen Künstliche Intelligenz und Generative AI intensiv wie nie zuvor diskutiert. ChatGPT ist ein sogenanntes Large Language Model (LLM), welches es Nutzer:innen ohne technische Vorkenntnisse ermöglicht, die Potenziale Künstlicher Intelligenz vielfältig zu nutzen. Die unzähligen Anwendungsszenarien des Modells, wie zum Beispiel das Generieren und Zusammenfassen von Texten oder das Erstellen von Programmiercode, vereinfachen den Arbeitsalltag, kommen aber nicht ohne Herausforderungen. So können Programme wie ChatGPT fehlerhafte Antworten generieren oder „halluzinieren“.

Das liegt daran, dass LLMs stets versuchen, Antworten auf gestellte Fragen zu liefern, selbst dann, wenn sie nur über begrenzte Informationen verfügen. Da aktuelle LLMs sehr gut darin sind, die menschliche Sprache zu imitieren und logisch zu formulieren, ist es für Nutzer naheliegend, den Aussagen der Modelle zu vertrauen. Außerdem können durch die Verwendung von Generative AI ungewollt sensible Informationen verbreitet werden, was das Beispiel eines Mitarbeiters eines großen Technologieunternehmens verdeutlicht. Dieser hatte internen Code und andere zu schützende Informationen in ChatGPT überführt, wodurch diese nun zur Datenbasis des Modells gehören und damit potenziell für andere zugänglich sind.

Fragt man ChatGPT selbst nach Risiken hinsichtlich der Nutzung von ChatGPT, erhält man folgende Antworten:

Verzerrungen

Wie jedes Modell für maschinelles Lernen kann auch ChatGPT für Verzerrungen anfällig sein, die sich in seinen Antworten widerspiegeln können. Verzerrungen können durch die Daten entstehen, die zum Trainieren des Modells verwendet wurden, sowie durch das Design und die Implementierung des Algorithmus.

Die Risiken verdeutlichen, dass der Einsatz von Generative AI besonderer Aufmerksamkeit bedarf, um eine sichere und vertrauenswürdige Anwendung zu gewährleisten.

Die Regulierung von Generative AI kommt, aber wird alleine nicht ausreichen

In den aktuellen Diskussionen zur Mitigierung der Risiken von Generative AI rückt besonders die Frage nach einer angemessenen Regulierung in den Vordergrund. Im Mittelpunkt steht dabei die kommende KI-Verordnung der Europäischen Union, der EU AI Act, welcher KI-Systeme zukünftig basierend auf ihrer jeweiligen Risikokategorie regulieren soll. Dabei wird insbesondere die Frage diskutiert, ob ChatGPT als Hochrisiko-KI einzustufen ist.

Unabhängig von der KI-Regulierung wurde unter den bestehenden Datenschutzregeln ChatGPT in Italien zeitweise verboten. Hohe Wellen hat auch der Vorschlag einiger KI-Experten geschlagen, der vorsieht, KI-Entwicklungen zu pausieren, bis ausreichende Sicherheitsstandards und regulierende Maßnahmen in Kraft treten. Dabei stellt sich die Frage, ob ganzheitliche Verbote oder die zeitweise Pausierung eine angemessene Lösung darstellen. Im internationalen Wettbewerb würde ein rein europäisches Verbot bedeuten, den Anschluss zu verlieren, da die USA und China bereits heute Vorreiter auf dem Gebiet sind und ihren Vorsprung weiter ausbauen könnten.

Die Technologie „richtig“ zu nutzen ist also das Gebot der Stunde: Es stellt sich die Frage, wie wir die Innovation richtig nutzen und chancenorientiert bewusste Risiken eingehen, um im globalen Innovationswettbewerb zu bestehen. Mehr als Verbote benötigen Unternehmen daher Richtlinien und Leitplanken, die einen innovationsfördernden, gleichzeitig aber auch verantwortungsvollen Umgang mit Generative AI ermöglichen.

Sie haben Fragen?

Kontaktieren Sie unseren Experten

Unternehmen brauchen konkrete Lösungen, um Risiken bei der Nutzung von Generative AI zu mitigieren

Für Unternehmen ergeben sich einige Handlungsbedarfe hinsichtlich der Anwendung von Generative AI. Folgende Punkte sollten Unternehmen dabei mindestens in Betracht ziehen, um von den Potenzialen profitieren zu können, ohne dabei Risiken aus den Augen zu verlieren.

Definition von Vorgaben und Richtlinien

Unternehmen sollten konkrete Vorgaben und Richtlinien zur Nutzung von Generative AI definieren. Beispielsweise mit Blick auf die Unternehmensstrategie, den Umgang und vor allem das Erkennen von Deep Fakes, oder in welchen Unternehmensbereichen und für welche Zwecke (beispielsweise zur Textgenerierung oder -zusammenfassung, zur Übersetzung, im Kundenservice oder Überarbeitung von Code) die Anwendung solcher Systeme zulässig sein soll. Dabei empfiehlt es sich, die Nutzung von Generative AI auf Basis eines risikobasierten Ansatzes zu bewerten, wobei mindestens die folgenden Bewertungskriterien berücksichtigt werden sollten:

  • Urheberrecht: Kann die Verwendung des Outputs für den jeweiligen Anwendungsfall zu urheberrechtlichen Unsicherheiten führen?
  • Transparenz und Erklärbarkeit: Welche Relevanz haben (fehlende) Transparenz und Erklärbarkeit für die Nutzung von Generative AI für den jeweiligen Anwendungsfall?
  • Datenschutz: Besteht die Gefahr, sensible Daten durch die Nutzung des KI-Systems offenzulegen? Werden die Input Daten beispielsweise zu Trainingszwecken durch das KI-System gespeichert und wiederverwendet?
  • Qualität des Output: Es sollte bestimmt werden, ob die Güte des Outputs für den Einsatzzweck ausreicht.
  • Missbrauchsgefahr: Besteht die Möglichkeit, das KI-System zu anderen als den gedachten Einsatzzweck zu verwenden? Könnte dies negative Auswirkungen für das Unternehmen, den Anwender oder Dritte haben?
  • Haftung & Reputation: Welche Auswirkung hat die Nutzung von Generative AI hinsichtlich der Unternehmensreputation? Wird die KI beispielsweise extern eingesetzt und könnte zu negativen Kundenerfahrungen führen? Inwieweit würde die Organisation für Zwischenfälle haftbar gemacht werden?
Follow us
Hide

Contact us

Hendrik Reese

Hendrik Reese

Partner, Responsible AI Lead, PwC Germany