The GenAI Building Blocks

Technologische Grundlagen generativer KI: Architekturen, Algorithmen und Innovationen

Technology Foundations of Generative AI: Architectures, Algorithms, and Innovations
  • Artikel
  • 14 Minuten Lesezeit
  • 31 Jan 2024

Von Norbert Freitag, Michael Berns, Stefan Pühl und Tobias Gräber. Generative künstliche Intelligenz (GenAI) ist eine besondere Art von KI, die basierend auf vorhandenen Informationen wie Texten, Bildern, Videos oder Musik neue Inhalte oder Daten erstellen kann. Was GenAI von früheren KI-Innovationen unterscheidet, ist der Einsatz von Multimodalen Large Language Models (MLLM) oder Large Multimodal Models (LMM), die verschiedene Daten in natürlicher Sprache verarbeiten und generieren können.

Die Technologie führt zu wegweisenden Fortschritten bei der Sprachvorhersage, der Analyse von Dokumenten, der Generierung von Inhalten und anderen Aufgaben. Die Grundlage: umfangreiche Daten aus dem Internet, die fortschrittliche Rechenleistung von GPU-Prozessoren und verfeinerte Trainingsmethoden. GenAI unterstützt bereits in vielen Branchen und Unternehmensbereichen Benutzerschnittstellen, Softwareanwendungen und kreative Fähigkeiten. Das ermöglicht die Konvergenz, Augmentierung und Automatisierung digitaler Prozesse.

Grundlegende Komponenten von generativen KI-Systemen

Um eine strategische Konvergenz, Augmentierung oder Automatisierung mit einem menschengeführten GenAI-Ansatz zu realisieren, gilt es, die folgenden strategischen Lösungsbausteine zu berücksichtigen. Das Ziel: in bestehenden Lösungen vorhandene Aspekte der Berechnung, Leistungsfähigkeit, Kontrolle und Vernetzung einzubeziehen.

Infografik: Aufbau von Generative KI Lösungen - PwC

Die Benutzeroberfläche für Endbenutzer:innen, auch als Frontend bezeichnet, verbindet Anwender:innen für eine spezifische Aufgabe innerhalb eines Anwendungsfalls mit den Funktionen der GenAI-Lösung. Dabei sind verschiedene Schnittstellen möglich, beispielsweise in Form von Sprachsteuerung oder Texteingabe.

Digitale Plattform-Ökosysteme bestehen aus der existierenden, via API verbundenen IT-Landschaft sowie dem erweiterten Ökosystem, das je nach Bedarf auf Lösungen anderer Anbieter zugreift, um die Befehle der Endbenutzer:innen auszuführen.

Die Verwaltungsplattform koordiniert über ein API-Gateway die Kommunikation zwischen verschiedenen MLLMs, dem digitalen Plattform-Ökosystem und den Unternehmensdaten. So kann das System den Anwendungsfall auf Basis einer adaptiven Architektur realisieren.

Es gibt mehrere Datenquellen, um das MLLM zu konfigurieren und es spezifisch für den Anwendungsfall und die Aufgabe aufzubauen. Hinzu kommt weiteres Feintuning, Light Prompting oder Retrieval Augmented Generation (RAG) für die Orchestrierung von Unternehmens- und öffentlichen Daten.

Multimodal Large Language Models (MLLM) bilden die Grundlage, um Inhalte zu generieren. Es können mehrere MLLMs für unterschiedliche Aufgaben- oder datenspezifische Zwecke eingesetzt werden. Dabei stehen verschiedene Sicherheitsfilter und softwarebasierte Steuerungsmöglichkeiten zur Verfügung, um die Compliance zu gewährleisten.

Die Cloud-Computing-Infrastruktur wird benötigt, um Sprachmodelle, andere Apps und Datenbanken auszuführen. Sie besteht aus virtuellen und physischen Komponenten wie Speichern, Servern und Netzwerken

Modalitäten im Bereich von GenAI

Die Sprachmodelle, Anwendungen und Schnittstellen sind multimodal und kombinieren Sprache mit anderen Medien, insbesondere Bildern, Videos und Audio:

Textgenerierung
Hier geht es um die Erstellung kohärenter und inhaltlich relevanter Texte. Modelle sind in der Lage, Aufsätze, Gedichte und sogar Code zu schreiben.

Bildgenerierung
KI-Modelle können Bilder aus textuellen Beschreibungen erstellen und somit die Kreativität von KI demonstrieren.

Audiogenerierung
KI-Systeme können Musik sowie Soundeffekte erzeugen und sogar menschliche Stimmen bemerkenswert genau replizieren.

Videogenerierung
KI kann animierte Sequenzen erstellen oder vorhandene Videos verändern. Dieser Bereich wächst sehr schnell.

Datensynthese
Generative KI kann synthetische Daten erstellen, um maschinelle Lernmodelle zu schulen. Das ist insbesondere in Bereichen hilfreich, in denen Daten knapp oder sensible Informationen enthalten sind.

Generierung von 3D-Modellen
KI wird eingesetzt, um 3D-Modelle für verschiedene Bereiche wie Gaming oder Architektur zu generieren.

Sprachübersetzungen
Fortgeschrittene KI-Modelle bieten kontextbewusste Übersetzungsdienste in Echtzeit und überwinden damit Sprachbarrieren.

Interaktive Konversationsagenten
KI ermöglicht leistungsfähige Chatbots und virtuelle Assistenten, mit denen menschenähnliche Interaktionen möglich sind.

Jede Modalität für sich zeigt bereits die Vielseitigkeit und das transformative Potenzial von GenAI. Um jedoch das volle Potenzial der Technologie zu entfalten, ist die Kombination mehrerer Modalitäten entscheidend.

Die Evolution der (generativen) KI-Technologien

1950er bis 1970er Jahre – Entstehung und frühe Tage

1950er Jahre:
Das Konzept der künstlichen Intelligenz wird erstmals von Alan Turing beschrieben. Die frühe KI-Forschung konzentriert sich auf Logik und Lösung von Problemen.

1960er Jahre:
Die Entwicklung der ersten neuronalen Netzwerke markiert den Beginn des maschinellen Lernens, obwohl die Technologie durch die damalige Rechenleistung begrenzt ist.

1970er Jahre:
KI steht aufgrund überhöhter Erwartungen und begrenztem Fortschritt vor der ersten Probe.

1980er bis 1990er Jahre – Wiederbelebung und Expansion

1980er Jahre:
KI erlebt eine Wiederbelebung mit dem Aufkommen von Expertensystemen, die in der Lage sind, den Entscheidungsprozess menschlicher Expert:innen nachzuahmen.

Ende der 1980er Jahre:
Der Backpropagation-Algorithmus belebt die Forschung im Bereich neuronaler Netzwerke wieder. 

1990er Jahre:
Maschinelles Lernen, insbesondere in Form von Entscheidungsbäumen, Support Vector Machines und einfacheren neuronalen Netzwerken, wird zunehmend für die Lösung realer Probleme anwendbar.

2000er Jahre – das Zeitalter von Big Data und fortschrittlichen Algorithmen

Anfang der 2000er Jahre:
Das Aufkommen von Big Data und höheren Rechenleistungen treiben den Fortschritt von KI voran.

2006:
Geoffrey Hintons Arbeit zu Deep Learning und Deep Belief Networks entfacht ein großes Interesse an Deep Neuronal Networks.

2010er Jahre:
Die Explosion von Daten, weitere Fortschritte in der Rechenleistung und Verbesserungen in den Algorithmen führen zum rapiden Wachstum des Deep Learnings.

2010er Jahre – Durchbrüche und Integration in den Mainstream

2011:
IBMs Watson gewinnt „Jeopardy!“ und demonstriert den Fortschritt der Fähigkeiten zur natürlichen Sprachverarbeitung.

2012:
AlexNet, ein Deep Convolutional Neural Network, gewinnt den ImageNet-Wettbewerb und revolutioniert das Gebiet der Computer Vision.

2014:
Die Entwicklung von Generative Adversarial Networks (GANs) durch Ian Goodfellow eröffnet neue Möglichkeiten bei der Anwendung generativer Modelle.

2015:
AlphaGo, entwickelt von DeepMind, besiegt einen professionellen menschlichen Spieler im Brettspiel Go – eine Aufgabe, die für KI bis dato als äußerst herausfordernd galt.

2016:
Die Einführung von Reinforcement Learning in verschiedenen Anwendungen, einschließlich Robotik und Gaming, zeigt die Problemlösungsfähigkeiten von KI.

Späte 2010er Jahre – Fortschritte in der Sprachverarbeitung und Autonomie

Die Entwicklung von generativen KI-Technologien, insbesondere nach der Einführung des Transformer-Modells durch Google, markiert eine bedeutende Entwicklung im Bereich der KI:

2017:
Googles Transformer-Modell: Google führt das Transformer-Modell ein und revolutioniert die natürliche Sprachverarbeitung mit seinem Aufmerksamkeitsmechanismus. Das Unternehmen legt damit den Grundstein für zukünftige generative Modelle.

2018:
OpenAIs GPT: OpenAI veröffentlicht den ersten Generative Pre-trained Transformer (GPT) und zeigt das Potenzial von Transformern in der Sprachgenerierung.

2019:
GPT-2: OpenAI stellt GPT-2 vor, eine verbesserte Version mit größerem Trainingsdatensatz und Fähigkeiten, die sich vor allem in einem elaborierteren Sprachverständnis und einer besseren Generierung zeigen.

2019:
Googles BERT: Google veröffentlicht BERT (Bidirectional Encoder Representations from Transformers) und unterstreicht damit die Bedeutung des Kontextverständnisses in der Sprachverarbeitung.

2020:
GPT-3: OpenAI führt GPT-3 ein, ein deutlich größeres und leistungsstärkeres Modell, das neue Maßstäbe in der Sprachgenerierung und Vielseitigkeit setzt.

2021:
Googles T5 und Facebooks RoBERTa: Die Weiterentwicklung der Transformer-Technologie setzt sich fort – unter anderem mit Googles T5, das sich auf aufgabenunabhängiges Training konzentriert, und Facebooks KI RoBERTa, einer optimierten Version von BERT.

Seit 2021:
Multimodale KI-Systeme: Das Aufkommen multimodaler KI-Systeme wie OpenAIs DALL-E, das in der Lage ist, Bilder aus textuellen Beschreibungen zu generieren, zeigt die wachsenden Fähigkeiten der generativen KI.

Seit 2022:
Spezialisierte und effiziente Modelle: Der Fokus verlagert sich darauf, spezialisierte und effiziente Modelle zu entwickeln, die auf spezifische Aufgaben oder Branchen zugeschnitten sind und dabei Fragen der Rechenanforderungen und Zugänglichkeit berücksichtigen.

Seit 2022:
ChatGPT bringt Generative KI für die Massen, was zu einem schnellen Anstieg des globalen Interesses und der Verbreitung führt.

Fortlaufend:
Die KI-Forschung erweitert die Grenzen des Möglichen mit Fortschritten im Bereich Quanten Computing, KI-gesteuerter Arzneimittelentwicklung und vielem mehr.

Auf diesem Weg baut jeder technologische Fortschritt auf dem vorherigen auf und führt damit zu einem exponentiellen Wachstum der Fähigkeiten. Das Feld der KI entwickelt sich weiter, angetrieben von kontinuierlicher Forschung, Innovation und einem starken Fokus auf ethische und verantwortungsvolle Entwicklung.

Die Perspektive des CTO auf GenAI-Technologie

Als CTO ist es wichtig, informierte Entscheidungen über Technologien zu treffen, insbesondere in aufstrebenden Bereichen wie generativer KI. Das Potenzial von GenAI, realistische und kreative Inhalte zu erstellen, ist immens, erfordert jedoch sorgfältige Überlegungen.

Faktoren wie Skalierbarkeit, ethische Implikationen, Informationssicherheit und Datenschutz müssen gegen die Vorteile des Einsatzes von GenAI abgewogen werden. Indem CTOs die Fähigkeiten und Grenzen der Technologie verstehen, können sie strategische Entscheidungen treffen, die mit den Zielen und Werten ihrer Organisation übereinstimmen.

Open Source, Basismodelle und die Nutzung von Hyperscalern 

Die folgenden Punkte können Unternehmen als praktischen Leitfaden zur Auswahl der richtigen Optionen verwenden:

Übersicht und Vergleich von Cloud-basierten oder selbst gehosteten Lösungen
Der Vergleich von generativer KI im Kontext von Open Source, Basismodellen, Hyperscalern und die Gegenüberstellung von Cloud-basierten und selbst gehosteten Lösungen erfordert ein umfassendes Verständnis jedes Bereichs:

Open Source generative KI

  • Vorteile:
    potenziell niedrigere Kosten, höchste Flexibilität in Bezug auf Training und Integration
  • Nachteile:
    erfordert mehr technisches Fachwissen, begrenzter Support, potenzielle Sicherheitslücken, domänenabhängig jedoch potenziell weniger präzise als die Basismodelle
  • Am besten geeignet für:
    mittelständische bis große Unternehmen mit technischen Fähigkeiten, Unternehmen, die maßgeschneiderte Lösungen suchen
  • Dinge, die zu beachten sind:
    Die Open-Source-Entwicklergemeinschaft kann im Vergleich zu kommerziellen Anbietern in bestimmten Aspekten stärker sein. Es braucht aber ausgeprägte technische Fähigkeiten in der Organisation, um eine vollständige Pipeline zu entwerfen, aufzubauen, zu implementieren und zu betreiben.

Basismodelle (wie GPT-4, BERT)

  • Vorteile:
    fortgeschrittene Fähigkeiten, kontinuierliche Entwicklung, Support und Updates, Zuverlässigkeit
  • Nachteile:
    können teuer sein, aktuell noch weniger anpassbar
  • Am besten geeignet für:
    Unternehmen, die modernste Fähigkeiten benötigen, ohne umfangreiche KI-Entwicklungsmöglichkeiten zu haben 
  • Dinge, die zu beachten sind:
    Basismodelle bieten eine breite Palette von Zugriffsmöglichkeiten und Ökosystemen, um in einem bestimmten Kontext zu arbeiten.

Hyperscaler

  • Vorteile:
    skalierbar, robust, reichhaltiges Anwendungs- und Infrastruktur-Ökosystem, starker Support 
  • Nachteile:
    Kosten können hoch sein, erhöhtes Risiko für einen Vendor Lock-In 
  • Am besten geeignet für:
    große Unternehmen oder solche, die skalierbare, zuverlässige KI-Lösungen benötigen
  • Dinge, die zu beachten sind:
    Hyperscaler bieten Zugang zu Basis- und Open-Source-Modellen. Je nach Anzahl der Anwendungsfälle und der verfügbaren Technologieoptionen können ein oder mehrere (Multi-Cloud-)Optionen erforderlich sein.

Cloud-basierte Lösungen

  • Vorteile:
    einfacher zu skalieren, geringere Kosten, regelmäßige Updates, starker Support
  • Nachteile:
    laufende Kosten, Überlegungen zur Informationssicherheit und/oder Datenschutz (z. B. EU-Unternehmen mit Cloud-Hosting in den USA)
  • Am besten geeignet für:
    Unternehmen ohne große IT-Infrastrukturen oder solche, die Skalierbarkeit und Flexibilität benötigen
  • Dinge, die zu beachten sind:
    Governance- und Risikothemen müssen vor dem Zugriff auf Cloud-basierte Lösungen geklärt werden.

Selbst gehostete Lösungen

  • Vorteile:
    volle Kontrolle über Daten und Infrastruktur, potenziell höchste Sicherheit
  • Nachteile:
    Anfangskosten, erfordert internes Fachwissen, laufende Betriebs- und Wartungskosten.
  • Am besten geeignet für:
    große Unternehmen mit sensiblen Daten, Unternehmen mit der Fähigkeit, IT-Infrastrukturen zu verwalten
  • Dinge, die zu beachten sind:
    Neben der Bereitstellung der größten Flexibilität für jeden Anwendungsfall erfordert diese Art der Implementierung den größten Aufwand seitens des Unternehmens, einschließlich Ressourcen für Entwicklung und Betrieb.

Cloud-basierte Lösungen sind benutzerfreundlich und skalierbar, während selbst gehostete Optionen Kontrolle und potenzielle Sicherheitsvorteile bieten. Open Source ist kostengünstig, erfordert jedoch technisches Fachwissen, während Basismodelle fortschrittliche Funktionen vom Start weg anbieten. Hyperscaler bieten integrierte, skalierbare Lösungen zu höheren Kosten.

Zusammenfassend hängt die Wahl der besten Option von verschiedenen Elementen ab, wie der Anzahl der geplanten Anwendungsfälle und den Governance-Anforderungen (beispielsweise hinsichtlich des Datenschutzes), die von der Organisation gestellt werden. Solche Anforderungen müssen Unternehmen mit dem Angebot abgleichen: vom technischen Fachwissen im Unternehmen (oder extern) über die Hardware/Infrastruktur im Unternehmen (oder extern) bis zu den Ökosystemen.

Unternehmen müssen diese Faktoren im Verhältnis zu ihren Bedürfnissen, Fähigkeiten und Ressourcen abwägen, um die beste Wahl zu treffen.

Beliebte Cloud-KI-Anbieter

Infografik: Beliebte Cloud-KI-Anbieter - PwC
Infografik: Modelle und Plattformen generativer KI - PwC

Schlussfolgerungen: Empfehlungen für den Betrieb von GenAI

CTO-Leitfaden zu Skalierbarkeit und Effizienz der Rechenleistung 

Organisatorische Anpassungsfähigkeit und Herausforderungen 

Generative KI ist eine leistungsstarke Technologie, die neue Inhalte und Erkenntnisse aus Daten wie Texten, Bildern, Audio und Video generieren kann. Sie hat ein immenses Wachstums- und Produktivitätspotenzial, da sie menschliche Fähigkeiten erweitern, komplexe Aufgaben automatisieren und verschiedene Funktionen und Bereiche zusammenführen kann. Allerdings bringt generative KI auch erhebliche Herausforderungen in Bezug auf Skalierbarkeit und Recheneffizienz mit, da massive Datenmengen, fortschrittliche Leistung und anspruchsvolle Algorithmen erforderlich sind, um große multimodale Modelle zu trainieren und auszuführen. Daher müssen Organisationen ihre Strategien, Architekturen und Prozesse anpassen, um generative KI effektiv und verantwortungsvoll zu nutzen.

Ein wichtiger Aspekt der organisatorischen Anpassungsfähigkeit liegt darin, generative KI-Lösungen mit den bestehenden digitalen Plattform-Ökosystemen und Industry Clouds zu harmonisieren, die die Customer und Employee Experience, das Geschäftsmodell und die Software-as-a-Service-Fähigkeiten definieren. Das hilft wiederum dabei, generative KI in Produkte und Dienstleistungen zu integrieren, Funktionalitäten auf andere Anwendungen und Geräte zu übertragen und den Basismodellen komplexe Datenflüsse zugänglich zu machen. Darüber hinaus kann dieser Schritt dazu beitragen, eine vorhandene Cloud-Computing-Infrastruktur zu nutzen, die die benötigte GPU-Leistung und Verfügbarkeit für die generativen KI-Modelle bereitstellen kann.

Genauso wichtig für die organisatorische Anpassungsfähigkeit ist, die Kontrolle und Governance der generativen KI zu adressieren, um die Qualität, Zuverlässigkeit und Ethik der durch GenAI geschaffenen Ergebnisse und Interaktionen sicherzustellen. Dies kann beispielsweise die Entwicklung von softwarebasierten- und organisatorischen Kontrollen für die Benutzereingabe und Modellausgabe umfassen, darunter etwa Filter, Plausibilitätsprüfungen, Zusammenfassungen und Fälle, in denen überstimmt wird. Es kann auch die Einrichtung eines GenAI-Architekturboards und eines GenAI-Monitoring-Offices umfassen, die die KI-Lösungen aus geschäftlicher und technischer Sicht strukturieren, überwachen und innovieren.

Indem sie die Potenziale generativer KI nutzen, können Organisationen die Herausforderungen hinsichtlich der Skalierbarkeit und Rechenleistungseffizienz bewältigen und von den Möglichkeiten der Konvergenz, Erweiterung und Automatisierung profitieren. Dies erfordert jedoch eine szenariobasierte Strategie, die den Menschen in den Mittelpunkt stellt und die relevanten Anwendungsfälle, Stakeholder sowie Ergebnisse für die generative KI identifiziert – inklusive Abwägung zwischen Kosten, Nutzen und Risiken.

Datenflüsse und Datenpipelines 

Im Kontext von GenAI sind Datenpipelines und Datenflüsse entscheidende Komponenten.

Datenpipelines sind Sequenzen von Verarbeitungsschritten, in denen die Daten transformiert und für das Training und die Bereitstellung von KI-Modellen transportiert werden. Das ist entscheidend für die effiziente und effektive Verarbeitung großer Datenmengen. Dazu gehören auch Prozesse wie Datensammlung, Bereinigung, Transformation und Ladevorgänge.

Datenflüsse beziehen sich auf die Bewegung und Transformation von Daten durch die Pipeline. Dies ist entscheidend, um sicherzustellen, dass die richtigen Daten in der richtigen Form zu den KI-Modellen gelangen.

Auswahl von LLMs und Rechenleistungseffizienz 

In einem idealen Szenario würden Unternehmen, die das optimale Large Language Model (LLM) für eine spezifische Anwendungen suchen, einen umfassenden Evaluierungsprozess implementieren, der verschiedene Aspekte diverser Modelle gegenüberstellt. Dieser Vergleich könnte eine Reihe von Modellen umfassen, einschließlich kommerzieller Modelle, Open-Source-LLMs oder sogar der Entwicklung eigener Modelle. Beispiele solcher Modelle für ein Benchmarking sind ChatGPT, LlaMA, Claude, PaLM2, Vicuna, MPT und andere.

Infografik: Auswahl von LLMs und Rechenleistungseffizienz  - PwC

Gesamtbetriebskosten (Total Cost of Ownership)
Wie hoch sind die Kosten für die Nutzung, Entwicklung, Unterstützung und Skalierung des LLM? Dies umfasst nicht nur die direkten Kosten für die Nutzung der Modelle (wie Lizenz- oder Abonnementgebühren), sondern auch indirekte Kosten wie die benötigten Rechenressourcen und potenzielle Kosten im Zusammenhang mit der Integration des Modells in bestehende Systeme.

Infografik: Wie hoch sind die Kosten für die Nutzung, Entwicklung, Unterstützung und Skalierung des LLM? - PwC

Anpassungsfähigkeit
Definieren von spezifischen Anwendungsfällen und Kriterien: Der nächste Schritt besteht daraus, die spezifischen Anwendungsfälle für das LLM klar zu definieren. Dies kann von der Automatisierung des Kundenservices bis zur Generierung von Inhalten oder komplexen Datenanalyse reichen. Es ist wichtig zu beachten, dass die Leistung von LLMs je nach spezifischer Aufgabe variiert, von der Unterstützung durch Chatbots bis zur Lösung von Programmier- oder Logikproblemen. Die Kriterien sollten entsprechend ausgewählt werden. Das gewählte LLM sollte nicht nur den aktuellen Erfordernissen entsprechen, sondern auch für zukünftige Anforderungen skalierbar sein. Das Unternehmen sollte zudem sicherstellen, dass das Modell steigende Lasten bewältigen kann und das Potenzial für kontinuierliche Verbesserungen und Updates seitens des Anbieters gegeben ist.

Im Allgemeinen gibt es drei Möglichkeiten, LLMs zu modifizieren oder anzupassen:

Nur im Kontext:
Basismodell ohne Modifikation des Modells
Die Aufgabe wird nur durch die Anpassung des Prompts und des Kontexts erreicht.

Fine-Tuning:
Das LLM wird eingefroren, aber die Aufgabenebenen werden modifiziert
Das Modell wird mithilfe von Eingabe-Ausgabe-Paaren angepasst.

Domain-Anpassung:
Das gesamte LLM wird aktualisiert
Die Modellgewichtungen werden mithilfe eines großen, domänenspezifischen Korpus angepasst.

Im Wesentlichen bezieht sich Anpassungsfähigkeit darauf, ob das Modell an viele Anwendungsfälle angepasst werden kann und welcher Grad an Anpassung jeweils erforderlich ist. Wichtige Kriterien sind dabei auch die Trainingsfähigkeit, eine verbesserte Rechenleistung, eine einfache Aktualisierung im Laufe der Zeit, Benutzerfreundlichkeit basierend auf der Dokumentation oder der Aufwand für Data Science.

Leistungsfähigkeit bei Aufgaben
Wie gut erfüllt das Modell eine bestimmte Aufgabe, Domäne oder eine Reihe von Anwendungsfällen? Dies kann mithilfe öffentlicher Validation Set Frameworks und/oder Metriken wie F1-Score, Präzision und Recall ermittelt werden und dabei auch Kostenfaktoren berücksichtigen. Die Genauigkeitsbewertung beinhaltet die Messung der Leistung des LLM in Bezug auf Präzision (der Anteil der korrekten positiven Identifizierungen), Recall (der Anteil der tatsächlichen positiven Ergebnisse, die korrekt identifiziert wurden) und den F1-Score (das harmonische Mittel aus Präzision und Recall). Unternehmen sollten eine Reihe von Aufgaben oder Abfragen entwickeln, die repräsentativ für realistische Szenarien des LLM sind, oder öffentliche Frameworks wie ARC, HellaSwag, MMLU und TruthfulQA verwenden.

Idealerweise wird zwischen Aufgabenausführung/Genauigkeit und zusätzlichen Kosten abgewogen. Hierbei werden die Vorteile eines Modells mit mehr Parametern den zusätzlichen Kosten gegenübergestellt. Wenn es eine signifikant bessere Leistung in Bezug auf F1-Score, Präzision und Recall bietet, könnte dies einen höheren Preis rechtfertigen. Wenn die Verbesserung jedoch für die spezifischen Anforderungen des Unternehmens marginal ist, könnte das kleinere vorhandene Modell kosteneffektiver sein.

Ökosystem
Bewertung der erforderlichen Software und Infrastruktur zur Unterstützung des Betriebs des LLM

Sicherheit und Schutz
Die Bewertung der Sicherheit des Modells in Bezug auf den Datenschutz, den Verlust von geistigem Eigentum sowie die Einhaltung von Datenschutzgesetzen und ethischen Standards ist von entscheidender Bedeutung. Dies beinhaltet die genaue Prüfung des Modells auf Vorurteile und Fairness, die entscheidende Aspekte für die unternehmerische Entscheidungsfindung sind.


Datenschutz und Regulierung

Generative KI unterliegt in Europa ethischen, rechtlichen und regulatorischen Anforderungen, insbesondere gemäß der DSGVO und dem Entwurf des europäischen AI Act. Je nach Anwendungsfall und Verarbeitungsschritten kann generative KI die Verarbeitung personenbezogener Daten in verschiedenen Szenarien umfassen – etwa beim Training eines KI-Modells, wenn Benutzer:innen personenbezogene Daten eingeben oder wenn das KI-Modell die Eingabedaten für weiteres Training verwendet. Wenn personenbezogene Daten betroffen sind, gelten für die Verantwortlichen und Auftragsverarbeiter die Verpflichtungen der DSGVO: Rechtmäßigkeit, Fairness, Transparenz, Zweckbindung, Datenminimierung, Richtigkeit, Speicherbegrenzung, Integrität, Vertraulichkeit, Rechenschaftspflicht und Wahrung der Rechte der betroffenen Personen.

Allerdings können einige dieser Anforderungen aufgrund der Komplexität und Undurchsichtigkeit von generativen KI-Systemen in der Praxis schwer zu erfüllen sein. Zum Beispiel ist es schwierig, die Genauigkeit und Fairness der Daten und Ergebnisse sicherzustellen, algorithmische Vorurteile und Diskriminierung zu verhindern, die Logik und Auswirkungen automatisierter Entscheidungen und Profilerstellungen zu erklären oder die Grundsätze der Datenminimierung und Speicherbegrenzung anzuwenden.

Der Entwurf des AI Act, von dem kürzlich ein finaler Text veröffentlicht wurde, zielt darauf ab, einen harmonisierten Rahmen für künstliche Intelligenz in Europa zu schaffen und KI-Systeme entsprechend ihrem Risiko zu klassifizieren. Die Verordnung wird in einigen Bereichen sogar strengere Transparenzverpflichtungen für generative KI-Systeme vorschreiben, wie zum Beispiel die Verpflichtung, Benutzer:innen zu informieren, wenn sie mit KI-generierten Inhalten interagieren oder ihnen begegnen.

Bestehende Datenschutzgesetze auf der ganzen Welt, wie zum Beispiel der CCPA, stellen bereits vergleichbare Anforderungen. Viele Länder streben darüber hinaus ähnliche KI-Gesetzgebungen wie die Europäische Union an. Die wichtigsten Themen, die Regulierungsbehörden abdecken möchten, sind:

  • Gewährleistung einer ethischen und verantwortungsvollen KI-Entwicklung (z. B. in den USA, Kanada, Indien, Großbritannien, Brasilien, Südkorea, den Vereinigten Arabischen Emiraten, Japan)
  • Etablierung einer Aufsicht für KI-Systeme mit hohem Risiko (z. B. in den USA, Kanada, Großbritannien)
  • Förderung der internationalen Zusammenarbeit und Standards (z. B. in den USA, Kanada, Großbritannien)
  • Investitionen in KI-Forschung und -Entwicklung (z. B. in den USA, Kanada, Indien, Großbritannien, Brasilien, Südkorea, den Vereinigten Arabischen Emiraten, Japan)
  • Gewährleistung von öffentlichem Vertrauen und Rechenschaftspflicht (z. B. in den USA, Kanada, Großbritannien, Indien)

Wie kann PwC Sie in diesem Zusammenhang unterstützen?

Als „Community of Solvers“ schafft PwC Vertrauen für einen menschenzentrierten Ansatz beim Umgang mit generativer KI, der positive Auswirkungen auf Benutzerschnittstellen, Softwareanwendungen und kreative Fähigkeiten hat. Die von PwC angebotene Strategie konzentriert sich auf Software, Investitionen und Risiken. Sie ermöglicht es Organisationen, das Potenzial von generativer KI zu nutzen und erfolgreich die spezifischen Konvergenz-, Augmentations- und Automatisierungsmöglichkeiten für ihre digitalen Prozesse umzusetzen.

Infografik: "Human-led" Initiativen im Bereich generativer KI - PwC

GenAI Readiness Assessment
Bewertung der organisatorischen Bereitschaft zur Nutzung von GenAI im großen Maßstab, um nachhaltige Geschäftswerte zu erzielen

Vertrauenswürdige GenAI-Strategie
Aufbau einer ganzheitlichen Unternehmensstrategie für GenAI, um Motivation in echten Geschäftswert umzuwandeln und gleichzeitig eine verantwortungsvolle und vertrauenswürdige Nutzung sicherzustellen

Entdeckung von GenAI-Anwendungsfällen
Identifizierung von wertsteigernden Anwendungsfällen und Überführung in ein standardisiertes und priorisiertes Portfolio, gefolgt von einer strategischen Umsetzung

GenAI-Betriebsmodell und Rollen
Definition des Zielbetriebsmodells und der erforderlichen Rollen, um eine erfolgreiche Integration, Übernahme und Wartung von GenAI-Lösungen in Unternehmen zu gewährleisten

GenAI-Infrastruktur und Daten
Verbesserung der infrastrukturellen Tiefe, Maximierung des Datenwerts durch regelmäßige Überwachung, Wartung und Optimierung technischer Systeme

Bewusstsein und Befähigung
Abstimmung eines ganzheitlichen Change-Managements und Schulungskonzepts mit der Integration von GenAI, um Mitarbeitende weiterzubilden und das Bewusstsein in der gesamten Organisation als Voraussetzung für Risikominderung zu schärfen

Allianz-Ökosystem und Erfahrung
PwC arbeitet eng mit etablierten Allianzpartnern wie Microsoft und Google zusammen, um die neuesten Technologien zu nutzen und KI verfügbar zu machen.

Follow us

Contact us

Mark Dinko Orlic

Mark Dinko Orlic

Partner, Gen AI Leader, PwC Germany

Tel.: +49 171 3027493

Andreas Hufenstuhl

Andreas Hufenstuhl

Partner, Data & AI Use Cases, PwC Germany

Tel.: +49 1516 4324486

Christine Flath

Christine Flath

Partnerin, PwC Germany

Norbert Freitag

Norbert Freitag

Partner, PwC Germany

Tel.: +49 151 70628523

Michael Berns

Michael Berns

Director, PwC Germany

Dr. Stefan Pühl

Dr. Stefan Pühl

Partner, Digital Leader, PwC Germany

Tel.: +49 160 91798-785

Dr. Tobias Gräber

Dr. Tobias Gräber

Director, PwC Europe, PwC Germany

Tel.: +49 211 981-1837

Hide