Generative AI liefert großes Potenzial, ist aber mit Risiken verbunden
Insbesondere seit der Veröffentlichung von ChatGPT durch Open AI werden die Themen Künstliche Intelligenz und Generative AI intensiv wie nie zuvor diskutiert. ChatGPT ist ein sogenanntes Large Language Model (LLM), welches es Nutzer:innen ohne technische Vorkenntnisse ermöglicht, die Potenziale Künstlicher Intelligenz vielfältig zu nutzen. Die unzähligen Anwendungsszenarien des Modells, wie zum Beispiel das Generieren und Zusammenfassen von Texten oder das Erstellen von Programmiercode, vereinfachen den Arbeitsalltag, kommen aber nicht ohne Herausforderungen. So können Programme wie ChatGPT fehlerhafte Antworten generieren oder „halluzinieren“.
Das liegt daran, dass LLMs stets versuchen, Antworten auf gestellte Fragen zu liefern, selbst dann, wenn sie nur über begrenzte Informationen verfügen. Da aktuelle LLMs sehr gut darin sind, die menschliche Sprache zu imitieren und logisch zu formulieren, ist es für Nutzer naheliegend, den Aussagen der Modelle zu vertrauen. Außerdem können durch die Verwendung von Generative AI ungewollt sensible Informationen verbreitet werden, was das Beispiel eines Mitarbeiters eines großen Technologieunternehmens verdeutlicht. Dieser hatte internen Code und andere zu schützende Informationen in ChatGPT überführt, wodurch diese nun zur Datenbasis des Modells gehören und damit potenziell für andere zugänglich sind.