KI-Ethik und Regulierung: Anleitung für Anleger

Von potenziell markenschädigenden ethischen Risiken bis hin zu regulatorischen Unsicherheiten – KI stellt Investoren vor Herausforderungen. AllianceBernstein | 14.06.2024 10:17 Uhr
© Foto von Igor Omilaev auf Unsplash
© Foto von Igor Omilaev auf Unsplash

Künstliche Intelligenz (KI) wirft viele ethische Fragen auf, die sich in Risiken für Verbraucher, Unternehmen und Investoren niederschlagen können. Und die KI-Regulierung, die sich in den verschiedenen Rechtsordnungen uneinheitlich entwickelt, trägt zur Unsicherheit bei. Unserer Meinung nach müssen Anleger vor allem auf Transparenz und Erklärbarkeit achten.

Die ethischen Fragen und Risiken der KI beginnen bei den Entwicklern, die die Technologie schaffen. Von dort fließen sie zu den Kunden der Entwickler - Unternehmen, die KI in ihre Geschäfte integrieren - und weiter zu den Verbrauchern und der Gesellschaft im Allgemeinen. Durch ihre Beteiligungen an KI-Entwicklern und Unternehmen, die KI einsetzen, sind die Anleger beiden Enden der Risikokette ausgesetzt.

KI entwickelt sich schnell und weit schneller, als die meisten Menschen sie verstehen. Zu denjenigen, die versuchen, den Rückstand aufzuholen, gehören globale Regulierungsbehörden und Gesetzgeber. Auf den ersten Blick hat ihre Aktivität im Bereich der KI in den letzten Jahren schnell zugenommen; viele Länder haben entsprechende Strategien veröffentlicht und andere stehen kurz vor deren Einführung (Abbildung).

In der Realität sind die Fortschritte uneinheitlich und bei weitem noch nicht abgeschlossen. Es gibt keinen einheitlichen Ansatz für die Regulierung von KI in den verschiedenen Rechtssystemen, und einige Länder haben ihre Vorschriften bereits vor dem Start von ChatGPT Ende 2022 eingeführt. Mit der zunehmenden Verbreitung von KI werden viele Regulierungsbehörden die bereits geleistete Arbeit aktualisieren und möglicherweise erweitern müssen.

Für Anleger kommen zu den regulatorischen Unsicherheiten noch andere Risiken der KI hinzu. Um zu verstehen und einzuschätzen, wie man mit diesen Risiken umgehen kann, ist es hilfreich, einen Überblick über die geschäftliche, ethische und regulatorische Landschaft der KI zu haben.

Datenrisiken können Marken schaden zufügen

KI umfasst eine Reihe von Technologien, die darauf abzielen, Aufgaben auszuführen, die normalerweise von Menschen erledigt werden, und zwar auf menschenähnliche Weise. KI und Wirtschaft können sich durch generative KI überschneiden, die verschiedene Formen der Inhaltserstellung umfasst, darunter Video, Sprache, Text und Musik, sowie große Sprachmodelle (LLMs), eine Untergruppe der generativen KI, die sich auf die Verarbeitung natürlicher Sprache konzentriert. LLMs dienen als grundlegende Modelle für verschiedene KI-Anwendungen - wie Chatbots, automatisierte Inhaltserstellung und die Analyse und Zusammenfassung großer Informationsmengen -, die Unternehmen zunehmend für ihre Kundeninteraktion nutzen.

Wie viele Unternehmen festgestellt haben, können KI-Innovationen jedoch potenziell markenschädigende Risiken bergen. Diese können sich aus Vorurteilen ergeben, die den Daten, auf denen LLMs trainiert werden, innewohnen, und haben beispielsweise dazu geführt, dass Banken bei der Bewilligung von Wohnungsbaudarlehen versehentlich Minderheiten diskriminiert haben und dass ein US-amerikanischer Krankenversicherer mit einer Sammelklage konfrontiert wurde, in der behauptet wurde, dass sein Einsatz eines KI-Algorithmus dazu geführt hat, dass älteren Patienten zu Unrecht Ansprüche auf erweiterte Pflege verweigert wurden.

Voreingenommenheit und Diskriminierung sind nur zwei der Risiken, auf die die Aufsichtsbehörden abzielen und die Anleger im Auge behalten sollten; andere sind Rechte an geistigem Eigentum und Überlegungen zum Datenschutz. Auch Maßnahmen zur Risikominderung - wie das Testen der Leistung, Genauigkeit und Robustheit von KI-Modellen durch die Entwickler und die Bereitstellung von Transparenz und Unterstützung für Unternehmen bei der Implementierung von KI-Lösungen - sollten unter die Lupe genommen werden.

Tiefes Verständnis der KI-Vorschriften

Das regulatorische Umfeld für KI entwickelt sich in den einzelnen Ländern auf unterschiedliche Weise und mit unterschiedlicher Geschwindigkeit. Zu den jüngsten Entwicklungen gehören der Artificial Intelligence Act der Europäischen Union (EU), der voraussichtlich Mitte 2024 in Kraft treten wird, und die Reaktion der britischen Regierung auf einen Konsultationsprozess, der im vergangenen Jahr durch die Veröffentlichung des Weißbuchs der Regierung zur KI-Regulierung ausgelöst wurde.

Beide Bemühungen veranschaulichen, wie unterschiedlich die Ansätze zur Regulierung von KI sein können. Im Vereinigten Königreich wird ein prinzipienbasierter Rahmen angenommen, den die bestehenden Regulierungsbehörden auf KI-Fragen in ihren jeweiligen Bereichen anwenden können. Im Gegensatz dazu führt der EU-Rechtsakt einen umfassenden Rechtsrahmen mit risikoabgestuften Compliance-Verpflichtungen für Entwickler, Unternehmen sowie Importeure und Vertreiber von KI-Systemen ein.

Unserer Meinung nach sollten sich Investoren nicht nur mit den Besonderheiten der KI-Vorschriften der einzelnen Länder befassen. Sie sollten sich auch mit der Art und Weise vertraut machen, wie die Rechtsordnungen mit KI-Problemen umgehen, indem sie Gesetze anwenden, die vor den KI-spezifischen Vorschriften gelten und über diese hinausgehen - zum Beispiel das Urheberrecht, wenn es um Datenverstöße geht, und die Arbeitsgesetzgebung in Fällen, in denen KI Auswirkungen auf die Arbeitsmärkte hat.

Fundamentale Analyse und Engagement sind entscheidend

Eine gute Faustregel für Anleger, die versuchen, das KI-Risiko einzuschätzen, ist, dass Unternehmen, die proaktiv umfassende Angaben zu ihren KI-Strategien und -Richtlinien machen, wahrscheinlich gut auf neue Vorschriften vorbereitet sind. Generell sind Fundamentalanalyse und Engagement der Emittenten - die Grundlagen für verantwortungsbewusstes Investieren - in diesem Bereich der Forschung von entscheidender Bedeutung.

Die Fundamentalanalyse sollte sich nicht nur mit den KI-Risikofaktoren auf Unternehmensebene befassen, sondern auch mit der gesamten Geschäftskette und dem regulatorischen Umfeld, wobei die Erkenntnisse mit den Kernprinzipien der verantwortungsvollen KI abgeglichen werden sollten (Abbildung).

Gespräche über das Engagement können so strukturiert werden, dass sie KI-Themen nicht nur im Hinblick auf die Geschäftstätigkeit, sondern auch aus ökologischer, sozialer und führungstechnischer Perspektive abdecken. Investoren können dem Aufsichtsrat und der Geschäftsführung unter anderem folgende Fragen stellen:

  • KI-Integration: Wie hat das Unternehmen KI in seine allgemeine Geschäftsstrategie integriert? Welche konkreten Beispiele für KI-Anwendungen gibt es im Unternehmen?

  • Aufsicht und Fachwissen des Vorstands: Wie stellt der Vorstand sicher, dass er über ausreichende Fachkenntnisse verfügt, um die KI-Strategie und -Implementierung des Unternehmens effektiv zu überwachen? Gibt es spezielle Schulungsprogramme oder Initiativen? 

  • Öffentliches Bekenntnis zu verantwortungsvoller KI: Hat das Unternehmen eine formelle Richtlinie oder einen Rahmen für verantwortungsvolle KI veröffentlicht? Wie steht diese Richtlinie im Einklang mit Branchenstandards, ethischen Überlegungen zu KI und KI-Vorschriften?

  • Proaktive Transparenz: Hat das Unternehmen proaktive Transparenzmaßnahmen eingeführt, um zukünftigen regulatorischen Auswirkungen standzuhalten? 

  • Risikomanagement und Rechenschaftspflicht: Welche Risikomanagementprozesse hat das Unternehmen eingeführt, um KI-bezogene Risiken zu erkennen und zu mindern? Gibt es eine delegierte Verantwortung für die Überwachung dieser Risiken?

  • Datenprobleme bei LLMs: Wie geht das Unternehmen mit Datenschutz- und Urheberrechtsfragen im Zusammenhang mit den Eingabedaten um, die zum Training großer Sprachmodelle verwendet werden? Welche Maßnahmen wurden ergriffen, um sicherzustellen, dass die Eingabedaten den Datenschutzbestimmungen und Urheberrechtsgesetzen entsprechen, und wie geht das Unternehmen mit Einschränkungen oder Anforderungen im Zusammenhang mit den Eingabedaten um?

  • Vorurteils- und Fairnessprobleme in generativen KI-Systemen: Welche Maßnahmen ergreift das Unternehmen, um vorurteils- oder unfairitätsbedingte Ergebnisse seiner KI-Systeme zu verhindern und/oder zu mildern? Wie stellt das Unternehmen sicher, dass die Ergebnisse generativer KI-Systeme fair und unvoreingenommen sind und keine Diskriminierung oder Schädigung von Einzelpersonen oder Gruppen verursachen?

  • Vorfallverfolgung und -berichterstattung: Wie verfolgt und berichtet das Unternehmen über Vorfälle im Zusammenhang mit der Entwicklung oder Nutzung von KI, und welche Mechanismen gibt es, um diese Vorfälle zu beheben und aus ihnen zu lernen? 

  • Kennzahlen und Berichterstattung: Anhand welcher Kennzahlen misst das Unternehmen die Leistung und die Auswirkungen seiner KI-Systeme, und wie werden diese Kennzahlen externen Interessengruppen mitgeteilt? Wie stellt das Unternehmen sicher, dass die Einhaltung der Vorschriften bei seinen KI-Anwendungen ordnungsgemäß überwacht wird?

Letztendlich ist es für Anleger am besten, sich auf dem Markt zu orientieren, indem sie sich auf das Wesentliche konzentrieren und skeptisch bleiben. Die KI ist eine komplexe und sich schnell entwickelnde Technologie. Anleger sollten auf klare Antworten bestehen und sich nicht von ausgefeilten oder komplizierten Erklärungen beeindrucken lassen.

Von Saskia Kort-Chick, Director of Social Research and Engagement—Responsibility und Jonathan Berkow, Director of Data Science—Equities bei AllianceBernstein

Performanceergebnisse der Vergangenheit lassen keine Rückschlüsse auf die zukünftige Entwicklung eines Investmentfonds oder Wertpapiers zu. Wert und Rendite einer Anlage in Fonds oder Wertpapieren können steigen oder fallen. Anleger können gegebenenfalls nur weniger als das investierte Kapital ausgezahlt bekommen. Auch Währungsschwankungen können das Investment beeinflussen. Beachten Sie die Vorschriften für Werbung und Angebot von Anteilen im InvFG 2011 §128 ff. Die Informationen auf www.e-fundresearch.com repräsentieren keine Empfehlungen für den Kauf, Verkauf oder das Halten von Wertpapieren, Fonds oder sonstigen Vermögensgegenständen. Die Informationen des Internetauftritts der e-fundresearch.com AG wurden sorgfältig erstellt. Dennoch kann es zu unbeabsichtigt fehlerhaften Darstellungen kommen. Eine Haftung oder Garantie für die Aktualität, Richtigkeit und Vollständigkeit der zur Verfügung gestellten Informationen kann daher nicht übernommen werden. Gleiches gilt auch für alle anderen Websites, auf die mittels Hyperlink verwiesen wird. Die e-fundresearch.com AG lehnt jegliche Haftung für unmittelbare, konkrete oder sonstige Schäden ab, die im Zusammenhang mit den angebotenen oder sonstigen verfügbaren Informationen entstehen. Das NewsCenter ist eine kostenpflichtige Sonderwerbeform der e-fundresearch.com AG für Asset Management Unternehmen. Copyright und ausschließliche inhaltliche Verantwortung liegt beim Asset Management Unternehmen als Nutzer der NewsCenter Sonderwerbeform. Alle NewsCenter Meldungen stellen Presseinformationen oder Marketingmitteilungen dar.
Klimabewusste Website

AXA Investment Managers unterstützt e-fundresearch.com auf dem Weg zur Klimaneutralität. Erfahren Sie mehr.

Melden Sie sich für den kostenlosen Newsletter an

Regelmäßige Updates über die wichtigsten Markt- und Branchenentwicklungen mit starkem Fokus auf die Fondsbranche der DACH-Region.

Der Newsletter ist selbstverständlich kostenlos und kann jederzeit abbestellt werden.