Künstliche Intelligenz (KI) ist eine Schlüsseltechnologie der digitalen Transformation und schon heute präsent in vielen Produkten und Prozessen. Das Vertrauen in die Zuverlässigkeit, Transparenz und Fairness von KI ist so entscheidend für eine weitverbreitete Nutzung, dass die Europäische Union eine eigene Verordnung für KI entworfen hat – den EU AI Act. Die Verordnung zielt darauf ab, Regeln für KI-Systeme festzulegen, Innovation zu fördern und Bürger:innen der EU zu schützen.
Sie fordert eine Governance, die Risiken von KI-Systemen während des gesamten Lebenszyklus beherrschbar macht. Die Umsetzung birgt Herausforderungen, aber auch Chancen für Organisationen. Mit dem richtigen Ansatz können sie ihre KI-Qualität verbessern, soziale Verantwortung demonstrieren und eine Vorreiterrolle bei der digitalen Transformation mit KI einnehmen.
Um beim Einsatz von KI im wettbewerbsintensiven europäischen KI-Markt erfolgreich zu sein, müssen regulierte Organisationen zukünftig vielfältige Vorschriften einhalten, eine Kultur des Vertrauens aufbauen und während des gesamten KI-Lebenszyklus für Transparenz sorgen.
Der EU AI Act ist eine Verordnung zur Festlegung harmonisierter Vorschriften für KI-Systeme. Je nach Risikoklasse der zugrundeliegenden KI-Systeme sieht die Verordnung Übergangsfristen von 6 bis 36 Monaten vor, innerhalb derer Organisationen die Anforderungen umsetzen müssen, wobei die Nichteinhaltung zu erheblichen Geldstrafen und Haftungsrisiken führen kann.
KI-Systeme werden grundsätzlich anhand ihrer Risiken reguliert. Einige Systeme sind gänzlich verboten und andere müssen Anforderungen erfüllen, um eingesetzt werden zu dürfen. Alle restlichen Systeme können zunächst ohne weitere Einschränkungen betrieben werden, wobei es der Kommission vorbehalten ist, die Liste der regulierten Systeme bei ausreichendem Risiko zu erweitern.
Der zentrale Gegenstand der Verordnung sind KI-Systeme mit hohem Risiko, die umfassenden Dokumentations-, Überwachungs- und Qualitätsanforderungen genügen müssen. Die Nutzer und Anbieter von KI-Systemen mit hohem Risiko tragen die Hauptlast der Anforderungen.
Weiterhin sind KI-Systeme mit allgemeinem Verwendungszweck, sogenannte General Purpose AI GPAI, stärker reguliert. Sie müssen spezielle Transparenzanforderungen erfüllen und eine Wahrung des Urheberrechts gewährleisten. Wenn sie darüber hinaus systemische Risiken verursachen, gelten strengere Regeln in Bezug auf ihr Qualitäts- und Risikomanagement sowie das Reporting an staatliche Stellen.
KI-Systeme, die direkt oder indirekt mit Menschen interagieren, werden dazu verpflichtet, diese über die Nutzung zu informieren.
Neben der allgemeinen Regulierung von KI durch den EU AI Act gibt es weitere Vorgaben, die für KI-Anwendungsfälle von Bedeutung sind: Horizontale, wie die DSGVO oder den vorgeschlagenen EU Data Act, und vertikale bzw. sektorale, wie die EU-Verordnung über Medizinprodukte (MDR) oder die deutsche Verordnung zur Genehmigung und zum Betrieb von Kraftfahrzeugen mit autonomer Fahrfunktion in festgelegten Betriebsbereichen (AFGBV).
Unser Fragebogen unterstützt Sie dabei, Ihre Bereitschaft einzuschätzen und mögliche Herausforderungen bei der Einhaltung des EU AI Acts zu erkennen. Aus unserer Erfahrung mit vielen Kunden wissen wir, dass diese Anforderungen erheblichen Einfluss auf den Umgang mit KI haben können. Entscheidend wird sein, geeignete Systeme für KI-Governance, Risikomanagement und Compliance effizient zu entwickeln und in bestehende Prozesse und Strukturen zu integrieren. Lassen Sie uns gemeinsam herausfinden, wo Sie in Bezug auf die EU-KI-Verordnung stehen.
Der Schlüssel zu einer nachhaltigen Wertschöpfung mit KI-Systemen liegt in der erfolgreichen Verknüpfung von Qualität, Regulierung und Skalierung. Um dies zu erreichen, sind anerkannte Standards, bewährte Methoden und geeignete Werkzeuge für eine sichere und effiziente Entwicklung und Operationalisierung von KI-Systemen notwendig. Insbesondere flexible Daten-, Risiko- und Lebenszyklus-Management-Systeme sind unabdingbar, um Organisationen in die Lage zu versetzen, ihre KI-Systeme erfolgreich aus der Pilotphase in den skalierten Betrieb zu überführen.
Im Kern ist vertrauenswürdige KI nicht mehr und nicht weniger als die konsequente Umsetzung bewährter Data-Science- und Machine-Learning-Methoden über den gesamten Lebenszyklus eines KI-Systems.
PwC hat ein AI Governance Introduction Framework entwickelt, das eine organisationsspezifische KI-Governance skizziert und die Konzepte und Prinzipien von Compliance-Management-Systemen mit den Anforderungen des EU AI Act kombiniert. Der erste Schritt besteht darin, die Einrichtung der notwendigen Compliance- und Governance-Komponenten vorzubereiten und ein klares Bild der notwendigen Maßnahmen für die Anwendungsfälle einer Organisation zu entwickeln.
In Anbetracht der knapp bemessenen Übergangsfristen sollte umgehend mit der Compliance-Planung begonnen werden. Die frühzeitige Implementierung einer ganzheitlichen KI-Governance kann Unternehmen einen Wettbewerbsvorteil in Bezug auf die Markteinführungszeiten und die Qualität von KI-Systemen mit hohem Risiko verschaffen. Die Anforderungen der Verordnung sind komplex, und Unternehmen sollten in jedem Fall bestehende Compliance-Strukturen und bewährte Praktiken im Bereich des maschinellen Lernens nutzen.
Langfristig wird die Fähigkeit, Qualität, Compliance und Skalierung von KI-Systemen miteinander zu verbinden, entscheidend für den Erfolg von Unternehmen sein, die KI auf dem europäischen Markt einsetzen - insbesondere gegenüber Wettbewerbern in Asien und den USA. Interdisziplinäre Kompetenzen sind notwendig, um Strukturen und Prozesse für eine KI-Governance zu schaffen, die technisch, rechtlich und organisatorisch fit für die Zukunft ist.
„Unternehmen haben heute die Chance, sich auf zukünftige Anforderungen durch Regulierung vorzubereiten. Wenn sie sich so als Vorreiter positionieren, können sie sich enorme Wettbewerbsvorteile erschließen. Dann kann Künstliche Intelligenz ‚Made in Germany‘ zu einem echten Gütesiegel werden und die digitale Transformation in Deutschland vorantreiben.“
Hendrik Reese,Partner Responsible AI bei PwC DeutschlandPartner, Cybersecurity, Data Protection & IP Leader, Global Legal Business Solutions Network, PwC Germany
Tel.: +49 171 7614597