Robeco-Expertin Zandbergen-Albers: Warum Unternehmen mit KI verbundene Probleme nicht ignorieren sollten

Jüngste Entwicklungen in den USA haben gezeigt, dass der Einsatz von Künstlicher Intelligenz (KI) negative gesellschaftliche Auswirkungen mit sich bringen kann. Wer sich beispielsweise für das Thema „Die US-Wahlen wurden gefälscht“ interessiert, wird nur Informationen sehen, die das bestätigen. Verantwortlich dafür sind die Algorithmen, die von den hinter den Sozialen Medien stehenden Firmen verwendet werden. Man bekommt keine anderen Fakten und Meinungen präsentiert – und das kann schädlich sein. Robeco | 01.02.2021 15:20 Uhr
Masja Zandbergen-Albers, Head of Sustainability Integration bei Robeco / © Robeco
Masja Zandbergen-Albers, Head of Sustainability Integration bei Robeco / © Robeco
Archiv-Beitrag: Dieser Artikel ist älter als ein Jahr.

In aller Kürze

  • In einigen Branchen ist Künstliche Intelligenz für 20 % des EBIT verantwortlich
  • Zu den Nachteilen gehören die Beeinträchtigung von Bürgerrechten, Unfälle und Biases
  • Die Unternehmen müssen für diese Probleme die Verantwortung übernehmen  

Nach Untersuchungen1 von McKinsey nutzen Unternehmen Künstliche Intelligenz (KI) zur Wertschöpfung. Die beim Einsatz von KI führenden Unternehmen stammen aus unterschiedlichen Branchen, in denen die Firmen bereits 20 % oder mehr ihrer Umsätze vor Abzug von Zinsen und Steuern auf KI zurückführen. 

Dies ist zwar ein positives Signal für Anleger, jedoch glauben wir, dass die Unternehmen auch auf die Risiken des Einsatzes von KI reagieren müssen. Aus derselben Studie ergibt sich, dass nur eine Minderheit der Unternehmen sich dieser Risiken bewusst ist und noch weniger von ihnen sich darum bemühen, sie zu reduzieren. Tatsächlich hören wir im Rahmen unseres Dialogs mit Unternehmen zu diesen Themen, dass sie von den Regulierern eindeutigere Vorgaben hinsichtlich des Einsatzes solcher Technologie erwarten. Unternehmen, die für die Zukunft gerüstet sind, sollten jedoch nicht auf die Regulierung warten, sondern von sich aus Verantwortung übernehmen.

Was sind Beispiele für diese gesellschaftlichen Probleme?

Bürgerrechte: KI-Systeme kommen in gesellschaftlich sensiblen Bereichen wie Bildung, Beschäftigung, Wohnraum, Bonitätsanalyse, Polizeiwesen und Strafverfolgung zunehmend zum Einsatz. Häufig werden sie ohne Kontextwissen oder die Zustimmung der Betroffenen verwendet und bedrohen so die bürgerlichen Rechte und Freiheiten. Beispielsweise bestehen Risiken für das Recht auf Privatsphäre, insbesondere durch den zunehmenden Einsatz von Systemen zur Gesichtserkennung, denen sich zu entziehen fast unmöglich ist.

Arbeitswelt und Automatisierung: KI-gestützte Automatisierung am Arbeitsplatz kann die Effizienz erhöhen und das Anfallen wiederkehrender Arbeiten reduzieren. Die Arbeitswelt wird sich voraussichtlich wandeln, da die Automatisierung in einigen Branchen Arbeitsplätze schafft und in anderen entfallen lässt. KI kann auch zu stärkerer Überwachung am Arbeitsplatz führen. Deshalb sollten Unternehmen sicherstellen, dass ihre Arbeitnehmer sich dessen bewusst sind, dass sie überwacht und bewertet werden. Ein weiteres Beispiel, das sich speziell auf den Technologiesektor bezieht, ist die im Verborgenen stattfindende Arbeit, die Menschen bei der Entwicklung, der Unterhaltung und dem Test von KI-Systemen leisten. Solche monotonen und häufig unbemerkte Tätigkeiten – oft auch als „Click-Working“ bezeichnet – wird nach Akkord entlohnt und häufig zu gering bezahlt. 

Sicherheit und Zurechenbarkeit: KI übernimmt bereits Entscheidungen in vielen Bereichen, unter anderem bei Finanzdienstleistern, in Krankenhäusern und in Stromnetzen. Aufgrund des Innovationsdrucks am Markt sind verschiedene KI-Systeme eingesetzt worden, bevor ihre technische Sicherheit garantiert war. Das autonome Auto von Uber, das eine Frau getötet hat, und Systeme von IBM, die unsichere und falsche Empfehlungen zu Krebsbehandlungen abgegeben haben, sind Beispiele für mögliche Fehlentwicklungen. Weil es zu Unfällen kommen kann, sind Kontrolle und Verantwortung unverzichtbar, wenn KI-Systeme in Zukunft wichtige Entscheidungen in der Gesellschaft treffen sollen. 

Biases: Das am häufigsten erörterte Problem bei KI-Systemen ist seine Anfälligkeit für Biases, die Vorteile und soziale Ungleichheit reflektieren und sogar verstärken können. Diese Biases können aus Daten resultieren, die bereits bestehende Diskriminierungen widerspiegeln oder nicht repräsentativ für die moderne Gesellschaft sind. Selbst wenn die zugrundeliegenden Daten keinen Bias aufweisen, kann es bei ihrer Verwendung auf verschiedene Weise zur Programmierung von Biases kommen. Laut einem Bericht der UNESCO2 verstärken KI-gestützte Stimmassistenten – von Amazons Alexa bis hin zu Apples Siri – geschlechtsbezogene Biases. Laut dem Bericht verfügen diese KI-gestützten Stimmassistenten standardmäßig über weibliche Stimmen und sind auf eine Weise programmiert, die unterstellt, dass Frauen unterwürfig sind. Aktuell sind nur 12 % der KI-Researchexperten und nur 6 % der Softwareentwickler Frauen. Da KI-Entwickler vorwiegend weiße männliche Techniker sind, könnte es im Rahmen der Entwicklung von Anwendungen zu einem Bias in Richtung auf ihre Werte und Überzeugungen kommen. Des Weiteren könnte der Einsatz der falschen Modelle oder von Modellen mit unbeabsichtigt diskriminierenden Eigenschaften zu einem Bias im System führen. Ein anderer Aspekt im Zusammenhang mit Biases ist das „Blackbox“-Problem. Es tritt auf, wenn es unmöglich ist, die vom KI-System getätigten Schritte vor Treffen einer bestimmten Entscheidung zu verstehen. Daraus kann sich ein unbewusster Bias ergeben. Nicht zuletzt kann auch ein beabsichtigter Bias in die Algorithmen integriert werden.

Content-Moderation im Fokus

Soziale Medien nutzen Algorithmen zur Content-Moderation und menschliche Kontrollteams zur Überwachung von Nutzerbeiträgen basierend auf vorab festgelegten Regeln und Leitlinien. Content-Moderation erfordert eine sehr starke psychische Konstitution – sie eignet sich häufig nicht dafür, von zu Hause aus erledigt zu werden, wo Familienmitglieder sich im selben Raum befinden. Infolgedessen mussten die Unternehmen während der Kontaktbeschränkungen während der Coronavirus-Pandemie den Umfang der Inhalte reduzieren, der überprüft werden kann. 

Die Relevanz von Content-Moderation wurde anhand der #StopHateForProfit-Kampagne deutlich, die auf die Gewinnerzielung mit verletzender Sprache und Fehlinformation auf Facebook hinwies. Die Kampagne führt dazu, dass mehr als 1000 Werbekunden – darunter große Unternehmen wie Target, Unilever und Verizon – Facebook bei der Anzeigenvergabe im Juli 2020 boykottierten. Content-Moderation blieb im Vorfeld der US-Wahlen im Fokus. Dabei galten bei allen wichtigen Anbietern sozialer Medien strengere Leitlinien und Prozesse. 

Investments erfordern Engagement

Aus den obengenannten Gründen begannen wir im Jahr 2019 einen Dialog zum Thema gesellschaftliche Auswirkungen von künstlicher Intelligenz. Aus Anlageperspektive sehen wir bei diesem Trend große Chancen. Weiterführende Informationen über künstliche Intelligenz als Anlagechance finden sich in dem Whitepaper3, das unser Trends Investing-Team im Dezember 2016 veröffentlicht hat. Allerdings haben wir auch anerkannt, dass KI unerwünschte Effekte mit sich bringen kann, auf die die Unternehmen in unseren Portfolios unseres Erachtens reagieren sollten. Wir fordern Unternehmen auf, fünf Dinge zu tun:

  1. Entwicklung und Publikation klarer Leitlinien für den Einsatz, die Bereitstellung und Entwicklung von KI-Systemen, die ausdrücklich gesellschaftlichen und menschenrechtsbezogenen Aspekten Rechnung tragen. 
  2. Durchführung regelmäßiger Analysen der Auswirkungen ihrer KI-Aktivitäten. Abgedeckt werden sollten dabei folgende Aspekte: diskriminierende Ergebnisse, soziale Biases, im Verborgenen stattfindende Arbeit und Probleme im Zusammenhang mit der Privatsphäre. 
  3. Einführung leistungsfähiger Governance-Vorgaben angesichts der komplexen Kontrollerfordernisse bei maschinellem Lernen. Die Unternehmen sollten Kontrollprozesse etablieren, die Vorfälle und Risiken im Zusammenhang mit unbeabsichtigten Konsequenzen des Einsatzes von KI identifizieren. Die Boards sollten ausreichend trainiert und erfahren sein, um den KI-bezogenen Kontrollrahmen wirkungsvoll überwachen zu können und KI-Leitlinien sowie ein entsprechendes Risiko-Reporting verabschieden zu können.
  4. Berücksichtigung gesellschaftlicher Aspekte von KI in der Entwurfs- und Entwicklungsphase. Das bedeutet unter anderem, dass in den Entwicklungsteams der Unternehmen ausreichendes Wissen im Hinblick auf die Menschenrechte und in ethischer Hinsicht vorhanden ist. Um soziale Biases abzuschwächen, sollten die Unternehmen auch für mehr Diversität und Inklusion in ihren KI-Teams sorgen.
  5. Verwendung eines Multi-Stakeholder-Ansatzes bei der Entwicklung und beim Einsatz von KI. Im Rahmen diverser Initiativen und auf verschiedenen Plattformen können Best-Practices ausgetauscht und verbreitet werden. Wir erwarten von den Unternehmen auch, dass sie über ihre Lobbyaktivitäten in Bezug auf KI-Gesetzgebung berichten.

Noch mehr Problembewusstsein erforderlich

Im Lauf des Jahres 2020 haben wir mit den meisten Unternehmen in unserer Engagement-Peergroup gesprochen. Bei unseren anfänglichen Gesprächen haben einige Unternehmen die Relevanz des Problems infrage gestellt oder wollten keine Verantwortung dafür übernehmen. Diese Einstellung scheint sich jedoch mittlerweile bei einigen von ihnen zu ändern.

Auf den Hauptversammlungen im Jahr 2020 kam es zu vermehrten Anträgen von Aktionären, die sich auf digitale Menschenrechte bezogen. Robeco gehörte zu den Initiatoren eines Aktionärsantrags auf der Hauptversammlung von Alphabet, der die Bildung eines Human Rights Risk Oversight-Komitees verlangte, welches aus unabhängigen Direktoren mit einschlägiger Erfahrung besteht. Rund 60 % der Aktionäre befürworteten unseren Antrag – ein erheblicher Anteil der Aktionärsstimmen ohne Kontrollmehrheit. 

In der ersten Novemberwoche kündigte Alphabet eine Ergänzung seines Audit Committee Charter an. Dieses umfasst nun auch die Prüfung wesentlicher Risiken im Hinblick auf Nachhaltigkeit sowie Bürger- und Menschenrechte. Dies steht im Einklang mit unserem Antrag auf eine formalisierte Board-Überwachung und stellt einen ersten Schritt in diese Richtung dar, was spezifische Nachhaltigkeitsaspekte wie beispielsweise Menschenrechte angeht. 

Künstliche Intelligenz wird in Zukunft immer häufiger eingesetzt werden und unser Leben und unsere Arbeit künftig erheblich beeinflussen. Da moralische und ethische Grundsätze nicht programmiert werden können, sollten die Unternehmen unserer Überzeugung nach ihre diesbezügliche Verantwortung anerkennen. Es gibt in dieser Hinsicht noch viel zu tun.

Masja Zandbergen - Albers, Head of Sustainability Integration, Robeco

1Global survey: The state of AI in 2020 | McKinsey

Artificial intelligence and gender equality: key findings of UNESCO’s Global Dialogue, August 2020

3file:///C:/Users/ROB3412/Downloads/04012017-artificial-intelligence-.pdf

Performanceergebnisse der Vergangenheit lassen keine Rückschlüsse auf die zukünftige Entwicklung eines Investmentfonds oder Wertpapiers zu. Wert und Rendite einer Anlage in Fonds oder Wertpapieren können steigen oder fallen. Anleger können gegebenenfalls nur weniger als das investierte Kapital ausgezahlt bekommen. Auch Währungsschwankungen können das Investment beeinflussen. Beachten Sie die Vorschriften für Werbung und Angebot von Anteilen im InvFG 2011 §128 ff. Die Informationen auf www.e-fundresearch.com repräsentieren keine Empfehlungen für den Kauf, Verkauf oder das Halten von Wertpapieren, Fonds oder sonstigen Vermögensgegenständen. Die Informationen des Internetauftritts der e-fundresearch.com AG wurden sorgfältig erstellt. Dennoch kann es zu unbeabsichtigt fehlerhaften Darstellungen kommen. Eine Haftung oder Garantie für die Aktualität, Richtigkeit und Vollständigkeit der zur Verfügung gestellten Informationen kann daher nicht übernommen werden. Gleiches gilt auch für alle anderen Websites, auf die mittels Hyperlink verwiesen wird. Die e-fundresearch.com AG lehnt jegliche Haftung für unmittelbare, konkrete oder sonstige Schäden ab, die im Zusammenhang mit den angebotenen oder sonstigen verfügbaren Informationen entstehen. Das NewsCenter ist eine kostenpflichtige Sonderwerbeform der e-fundresearch.com AG für Asset Management Unternehmen. Copyright und ausschließliche inhaltliche Verantwortung liegt beim Asset Management Unternehmen als Nutzer der NewsCenter Sonderwerbeform. Alle NewsCenter Meldungen stellen Presseinformationen oder Marketingmitteilungen dar.
Klimabewusste Website

AXA Investment Managers unterstützt e-fundresearch.com auf dem Weg zur Klimaneutralität. Erfahren Sie mehr.

Melden Sie sich für den kostenlosen Newsletter an

Regelmäßige Updates über die wichtigsten Markt- und Branchenentwicklungen mit starkem Fokus auf die Fondsbranche der DACH-Region.

Der Newsletter ist selbstverständlich kostenlos und kann jederzeit abbestellt werden.