Von Norbert Freitag, Michael Berns, Stefan Pühl und Tobias Gräber. Generative künstliche Intelligenz (GenAI) ist eine besondere Art von KI, die basierend auf vorhandenen Informationen wie Texten, Bildern, Videos oder Musik neue Inhalte oder Daten erstellen kann. Was GenAI von früheren KI-Innovationen unterscheidet, ist der Einsatz von Multimodalen Large Language Models (MLLM) oder Large Multimodal Models (LMM), die verschiedene Daten in natürlicher Sprache verarbeiten und generieren können.
Die Technologie führt zu wegweisenden Fortschritten bei der Sprachvorhersage, der Analyse von Dokumenten, der Generierung von Inhalten und anderen Aufgaben. Die Grundlage: umfangreiche Daten aus dem Internet, die fortschrittliche Rechenleistung von GPU-Prozessoren und verfeinerte Trainingsmethoden. GenAI unterstützt bereits in vielen Branchen und Unternehmensbereichen Benutzerschnittstellen, Softwareanwendungen und kreative Fähigkeiten. Das ermöglicht die Konvergenz, Augmentierung und Automatisierung digitaler Prozesse.
Um eine strategische Konvergenz, Augmentierung oder Automatisierung mit einem menschengeführten GenAI-Ansatz zu realisieren, gilt es, die folgenden strategischen Lösungsbausteine zu berücksichtigen. Das Ziel: in bestehenden Lösungen vorhandene Aspekte der Berechnung, Leistungsfähigkeit, Kontrolle und Vernetzung einzubeziehen.
Die Sprachmodelle, Anwendungen und Schnittstellen sind multimodal und kombinieren Sprache mit anderen Medien, insbesondere Bildern, Videos und Audio:
Textgenerierung
Hier geht es um die Erstellung kohärenter und inhaltlich relevanter Texte. Modelle sind in der Lage, Aufsätze, Gedichte und sogar Code zu schreiben.
Bildgenerierung
KI-Modelle können Bilder aus textuellen Beschreibungen erstellen und somit die Kreativität von KI demonstrieren.
Audiogenerierung
KI-Systeme können Musik sowie Soundeffekte erzeugen und sogar menschliche Stimmen bemerkenswert genau replizieren.
Videogenerierung
KI kann animierte Sequenzen erstellen oder vorhandene Videos verändern. Dieser Bereich wächst sehr schnell.
Datensynthese
Generative KI kann synthetische Daten erstellen, um maschinelle Lernmodelle zu schulen. Das ist insbesondere in Bereichen hilfreich, in denen Daten knapp oder sensible Informationen enthalten sind.
Generierung von 3D-Modellen
KI wird eingesetzt, um 3D-Modelle für verschiedene Bereiche wie Gaming oder Architektur zu generieren.
Sprachübersetzungen
Fortgeschrittene KI-Modelle bieten kontextbewusste Übersetzungsdienste in Echtzeit und überwinden damit Sprachbarrieren.
Interaktive Konversationsagenten
KI ermöglicht leistungsfähige Chatbots und virtuelle Assistenten, mit denen menschenähnliche Interaktionen möglich sind.
Jede Modalität für sich zeigt bereits die Vielseitigkeit und das transformative Potenzial von GenAI. Um jedoch das volle Potenzial der Technologie zu entfalten, ist die Kombination mehrerer Modalitäten entscheidend.
Auf diesem Weg baut jeder technologische Fortschritt auf dem vorherigen auf und führt damit zu einem exponentiellen Wachstum der Fähigkeiten. Das Feld der KI entwickelt sich weiter, angetrieben von kontinuierlicher Forschung, Innovation und einem starken Fokus auf ethische und verantwortungsvolle Entwicklung.
Als CTO ist es wichtig, informierte Entscheidungen über Technologien zu treffen, insbesondere in aufstrebenden Bereichen wie generativer KI. Das Potenzial von GenAI, realistische und kreative Inhalte zu erstellen, ist immens, erfordert jedoch sorgfältige Überlegungen.
Faktoren wie Skalierbarkeit, ethische Implikationen, Informationssicherheit und Datenschutz müssen gegen die Vorteile des Einsatzes von GenAI abgewogen werden. Indem CTOs die Fähigkeiten und Grenzen der Technologie verstehen, können sie strategische Entscheidungen treffen, die mit den Zielen und Werten ihrer Organisation übereinstimmen.
Die folgenden Punkte können Unternehmen als praktischen Leitfaden zur Auswahl der richtigen Optionen verwenden:
Übersicht und Vergleich von Cloud-basierten oder selbst gehosteten Lösungen
Der Vergleich von generativer KI im Kontext von Open Source, Basismodellen, Hyperscalern und die Gegenüberstellung von Cloud-basierten und selbst gehosteten Lösungen erfordert ein umfassendes Verständnis jedes Bereichs:
Cloud-basierte Lösungen sind benutzerfreundlich und skalierbar, während selbst gehostete Optionen Kontrolle und potenzielle Sicherheitsvorteile bieten. Open Source ist kostengünstig, erfordert jedoch technisches Fachwissen, während Basismodelle fortschrittliche Funktionen vom Start weg anbieten. Hyperscaler bieten integrierte, skalierbare Lösungen zu höheren Kosten.
Zusammenfassend hängt die Wahl der besten Option von verschiedenen Elementen ab, wie der Anzahl der geplanten Anwendungsfälle und den Governance-Anforderungen (beispielsweise hinsichtlich des Datenschutzes), die von der Organisation gestellt werden. Solche Anforderungen müssen Unternehmen mit dem Angebot abgleichen: vom technischen Fachwissen im Unternehmen (oder extern) über die Hardware/Infrastruktur im Unternehmen (oder extern) bis zu den Ökosystemen.
Unternehmen müssen diese Faktoren im Verhältnis zu ihren Bedürfnissen, Fähigkeiten und Ressourcen abwägen, um die beste Wahl zu treffen.
Beliebte Cloud-KI-Anbieter
Generative KI ist eine leistungsstarke Technologie, die neue Inhalte und Erkenntnisse aus Daten wie Texten, Bildern, Audio und Video generieren kann. Sie hat ein immenses Wachstums- und Produktivitätspotenzial, da sie menschliche Fähigkeiten erweitern, komplexe Aufgaben automatisieren und verschiedene Funktionen und Bereiche zusammenführen kann. Allerdings bringt generative KI auch erhebliche Herausforderungen in Bezug auf Skalierbarkeit und Recheneffizienz mit, da massive Datenmengen, fortschrittliche Leistung und anspruchsvolle Algorithmen erforderlich sind, um große multimodale Modelle zu trainieren und auszuführen. Daher müssen Organisationen ihre Strategien, Architekturen und Prozesse anpassen, um generative KI effektiv und verantwortungsvoll zu nutzen.
Ein wichtiger Aspekt der organisatorischen Anpassungsfähigkeit liegt darin, generative KI-Lösungen mit den bestehenden digitalen Plattform-Ökosystemen und Industry Clouds zu harmonisieren, die die Customer und Employee Experience, das Geschäftsmodell und die Software-as-a-Service-Fähigkeiten definieren. Das hilft wiederum dabei, generative KI in Produkte und Dienstleistungen zu integrieren, Funktionalitäten auf andere Anwendungen und Geräte zu übertragen und den Basismodellen komplexe Datenflüsse zugänglich zu machen. Darüber hinaus kann dieser Schritt dazu beitragen, eine vorhandene Cloud-Computing-Infrastruktur zu nutzen, die die benötigte GPU-Leistung und Verfügbarkeit für die generativen KI-Modelle bereitstellen kann.
Genauso wichtig für die organisatorische Anpassungsfähigkeit ist, die Kontrolle und Governance der generativen KI zu adressieren, um die Qualität, Zuverlässigkeit und Ethik der durch GenAI geschaffenen Ergebnisse und Interaktionen sicherzustellen. Dies kann beispielsweise die Entwicklung von softwarebasierten- und organisatorischen Kontrollen für die Benutzereingabe und Modellausgabe umfassen, darunter etwa Filter, Plausibilitätsprüfungen, Zusammenfassungen und Fälle, in denen überstimmt wird. Es kann auch die Einrichtung eines GenAI-Architekturboards und eines GenAI-Monitoring-Offices umfassen, die die KI-Lösungen aus geschäftlicher und technischer Sicht strukturieren, überwachen und innovieren.
Indem sie die Potenziale generativer KI nutzen, können Organisationen die Herausforderungen hinsichtlich der Skalierbarkeit und Rechenleistungseffizienz bewältigen und von den Möglichkeiten der Konvergenz, Erweiterung und Automatisierung profitieren. Dies erfordert jedoch eine szenariobasierte Strategie, die den Menschen in den Mittelpunkt stellt und die relevanten Anwendungsfälle, Stakeholder sowie Ergebnisse für die generative KI identifiziert – inklusive Abwägung zwischen Kosten, Nutzen und Risiken.
Im Kontext von GenAI sind Datenpipelines und Datenflüsse entscheidende Komponenten.
Datenpipelines sind Sequenzen von Verarbeitungsschritten, in denen die Daten transformiert und für das Training und die Bereitstellung von KI-Modellen transportiert werden. Das ist entscheidend für die effiziente und effektive Verarbeitung großer Datenmengen. Dazu gehören auch Prozesse wie Datensammlung, Bereinigung, Transformation und Ladevorgänge.
Datenflüsse beziehen sich auf die Bewegung und Transformation von Daten durch die Pipeline. Dies ist entscheidend, um sicherzustellen, dass die richtigen Daten in der richtigen Form zu den KI-Modellen gelangen.
In einem idealen Szenario würden Unternehmen, die das optimale Large Language Model (LLM) für eine spezifische Anwendungen suchen, einen umfassenden Evaluierungsprozess implementieren, der verschiedene Aspekte diverser Modelle gegenüberstellt. Dieser Vergleich könnte eine Reihe von Modellen umfassen, einschließlich kommerzieller Modelle, Open-Source-LLMs oder sogar der Entwicklung eigener Modelle. Beispiele solcher Modelle für ein Benchmarking sind ChatGPT, LlaMA, Claude, PaLM2, Vicuna, MPT und andere.
Gesamtbetriebskosten (Total Cost of Ownership)
Wie hoch sind die Kosten für die Nutzung, Entwicklung, Unterstützung und Skalierung des LLM? Dies umfasst nicht nur die direkten Kosten für die Nutzung der Modelle (wie Lizenz- oder Abonnementgebühren), sondern auch indirekte Kosten wie die benötigten Rechenressourcen und potenzielle Kosten im Zusammenhang mit der Integration des Modells in bestehende Systeme.
Anpassungsfähigkeit
Definieren von spezifischen Anwendungsfällen und Kriterien: Der nächste Schritt besteht daraus, die spezifischen Anwendungsfälle für das LLM klar zu definieren. Dies kann von der Automatisierung des Kundenservices bis zur Generierung von Inhalten oder komplexen Datenanalyse reichen. Es ist wichtig zu beachten, dass die Leistung von LLMs je nach spezifischer Aufgabe variiert, von der Unterstützung durch Chatbots bis zur Lösung von Programmier- oder Logikproblemen. Die Kriterien sollten entsprechend ausgewählt werden. Das gewählte LLM sollte nicht nur den aktuellen Erfordernissen entsprechen, sondern auch für zukünftige Anforderungen skalierbar sein. Das Unternehmen sollte zudem sicherstellen, dass das Modell steigende Lasten bewältigen kann und das Potenzial für kontinuierliche Verbesserungen und Updates seitens des Anbieters gegeben ist.
Im Allgemeinen gibt es drei Möglichkeiten, LLMs zu modifizieren oder anzupassen:
Nur im Kontext:
Basismodell ohne Modifikation des Modells
Die Aufgabe wird nur durch die Anpassung des Prompts und des Kontexts erreicht.
Fine-Tuning:
Das LLM wird eingefroren, aber die Aufgabenebenen werden modifiziert
Das Modell wird mithilfe von Eingabe-Ausgabe-Paaren angepasst.
Domain-Anpassung:
Das gesamte LLM wird aktualisiert
Die Modellgewichtungen werden mithilfe eines großen, domänenspezifischen Korpus angepasst.
Im Wesentlichen bezieht sich Anpassungsfähigkeit darauf, ob das Modell an viele Anwendungsfälle angepasst werden kann und welcher Grad an Anpassung jeweils erforderlich ist. Wichtige Kriterien sind dabei auch die Trainingsfähigkeit, eine verbesserte Rechenleistung, eine einfache Aktualisierung im Laufe der Zeit, Benutzerfreundlichkeit basierend auf der Dokumentation oder der Aufwand für Data Science.
Leistungsfähigkeit bei Aufgaben
Wie gut erfüllt das Modell eine bestimmte Aufgabe, Domäne oder eine Reihe von Anwendungsfällen? Dies kann mithilfe öffentlicher Validation Set Frameworks und/oder Metriken wie F1-Score, Präzision und Recall ermittelt werden und dabei auch Kostenfaktoren berücksichtigen. Die Genauigkeitsbewertung beinhaltet die Messung der Leistung des LLM in Bezug auf Präzision (der Anteil der korrekten positiven Identifizierungen), Recall (der Anteil der tatsächlichen positiven Ergebnisse, die korrekt identifiziert wurden) und den F1-Score (das harmonische Mittel aus Präzision und Recall). Unternehmen sollten eine Reihe von Aufgaben oder Abfragen entwickeln, die repräsentativ für realistische Szenarien des LLM sind, oder öffentliche Frameworks wie ARC, HellaSwag, MMLU und TruthfulQA verwenden.
Idealerweise wird zwischen Aufgabenausführung/Genauigkeit und zusätzlichen Kosten abgewogen. Hierbei werden die Vorteile eines Modells mit mehr Parametern den zusätzlichen Kosten gegenübergestellt. Wenn es eine signifikant bessere Leistung in Bezug auf F1-Score, Präzision und Recall bietet, könnte dies einen höheren Preis rechtfertigen. Wenn die Verbesserung jedoch für die spezifischen Anforderungen des Unternehmens marginal ist, könnte das kleinere vorhandene Modell kosteneffektiver sein.
Ökosystem
Bewertung der erforderlichen Software und Infrastruktur zur Unterstützung des Betriebs des LLM
Sicherheit und Schutz
Die Bewertung der Sicherheit des Modells in Bezug auf den Datenschutz, den Verlust von geistigem Eigentum sowie die Einhaltung von Datenschutzgesetzen und ethischen Standards ist von entscheidender Bedeutung. Dies beinhaltet die genaue Prüfung des Modells auf Vorurteile und Fairness, die entscheidende Aspekte für die unternehmerische Entscheidungsfindung sind.
Generative KI unterliegt in Europa ethischen, rechtlichen und regulatorischen Anforderungen, insbesondere gemäß der DSGVO und dem Entwurf des europäischen AI Act. Je nach Anwendungsfall und Verarbeitungsschritten kann generative KI die Verarbeitung personenbezogener Daten in verschiedenen Szenarien umfassen – etwa beim Training eines KI-Modells, wenn Benutzer:innen personenbezogene Daten eingeben oder wenn das KI-Modell die Eingabedaten für weiteres Training verwendet. Wenn personenbezogene Daten betroffen sind, gelten für die Verantwortlichen und Auftragsverarbeiter die Verpflichtungen der DSGVO: Rechtmäßigkeit, Fairness, Transparenz, Zweckbindung, Datenminimierung, Richtigkeit, Speicherbegrenzung, Integrität, Vertraulichkeit, Rechenschaftspflicht und Wahrung der Rechte der betroffenen Personen.
Allerdings können einige dieser Anforderungen aufgrund der Komplexität und Undurchsichtigkeit von generativen KI-Systemen in der Praxis schwer zu erfüllen sein. Zum Beispiel ist es schwierig, die Genauigkeit und Fairness der Daten und Ergebnisse sicherzustellen, algorithmische Vorurteile und Diskriminierung zu verhindern, die Logik und Auswirkungen automatisierter Entscheidungen und Profilerstellungen zu erklären oder die Grundsätze der Datenminimierung und Speicherbegrenzung anzuwenden.
Der Entwurf des AI Act, von dem kürzlich ein finaler Text veröffentlicht wurde, zielt darauf ab, einen harmonisierten Rahmen für künstliche Intelligenz in Europa zu schaffen und KI-Systeme entsprechend ihrem Risiko zu klassifizieren. Die Verordnung wird in einigen Bereichen sogar strengere Transparenzverpflichtungen für generative KI-Systeme vorschreiben, wie zum Beispiel die Verpflichtung, Benutzer:innen zu informieren, wenn sie mit KI-generierten Inhalten interagieren oder ihnen begegnen.
Bestehende Datenschutzgesetze auf der ganzen Welt, wie zum Beispiel der CCPA, stellen bereits vergleichbare Anforderungen. Viele Länder streben darüber hinaus ähnliche KI-Gesetzgebungen wie die Europäische Union an. Die wichtigsten Themen, die Regulierungsbehörden abdecken möchten, sind:
Als „Community of Solvers“ schafft PwC Vertrauen für einen menschenzentrierten Ansatz beim Umgang mit generativer KI, der positive Auswirkungen auf Benutzerschnittstellen, Softwareanwendungen und kreative Fähigkeiten hat. Die von PwC angebotene Strategie konzentriert sich auf Software, Investitionen und Risiken. Sie ermöglicht es Organisationen, das Potenzial von generativer KI zu nutzen und erfolgreich die spezifischen Konvergenz-, Augmentations- und Automatisierungsmöglichkeiten für ihre digitalen Prozesse umzusetzen.
GenAI Readiness Assessment
Bewertung der organisatorischen Bereitschaft zur Nutzung von GenAI im großen Maßstab, um nachhaltige Geschäftswerte zu erzielen
Vertrauenswürdige GenAI-Strategie
Aufbau einer ganzheitlichen Unternehmensstrategie für GenAI, um Motivation in echten Geschäftswert umzuwandeln und gleichzeitig eine verantwortungsvolle und vertrauenswürdige Nutzung sicherzustellen
Entdeckung von GenAI-Anwendungsfällen
Identifizierung von wertsteigernden Anwendungsfällen und Überführung in ein standardisiertes und priorisiertes Portfolio, gefolgt von einer strategischen Umsetzung
GenAI-Betriebsmodell und Rollen
Definition des Zielbetriebsmodells und der erforderlichen Rollen, um eine erfolgreiche Integration, Übernahme und Wartung von GenAI-Lösungen in Unternehmen zu gewährleisten
GenAI-Infrastruktur und Daten
Verbesserung der infrastrukturellen Tiefe, Maximierung des Datenwerts durch regelmäßige Überwachung, Wartung und Optimierung technischer Systeme
Bewusstsein und Befähigung
Abstimmung eines ganzheitlichen Change-Managements und Schulungskonzepts mit der Integration von GenAI, um Mitarbeitende weiterzubilden und das Bewusstsein in der gesamten Organisation als Voraussetzung für Risikominderung zu schärfen
Allianz-Ökosystem und Erfahrung
PwC arbeitet eng mit etablierten Allianzpartnern wie Microsoft und Google zusammen, um die neuesten Technologien zu nutzen und KI verfügbar zu machen.