Die künstliche Intelligenz (KI) entwickelt sich weiter. Wie gehen wir ethisch mit einer Technologie mit so weitreichenden Auswirkungen um? In dieser Folge von The Active Share spricht Hugo mit Olivia Gambelin, Gründerin und CEO von Ethical Intelligence, über KI-Ethik, verantwortungsvolle KI und darüber, wie unsere derzeitigen Systeme - rechtlich, sozial, wirtschaftlich und politisch - neue Technologien annehmen und sich an sie anpassen.
Die Kommentare sind bearbeitete Auszüge aus unserem Podcast, den Sie unten in voller Länge anhören können.
Wie definieren Sie KI-Ethik und verantwortungsvolle KI?
Olivia Gambelin: Ich definiere KI-Ethik und verantwortungsvolle KI als zwei verschiedene Dinge. KI-Ethik ist die Praxis der Implementierung menschlicher Werte in unsere Technologie, insbesondere in der KI. Es handelt sich dabei um einen designbasierten Ansatz, der die Technologie betrachtet und feststellt, ob sie einen Schutz der Werte oder eine Anpassung der Werte benötigt.
Verantwortungsvolle KI ist ein Oberbegriff, der verschiedene Themen wie KI-Ethik, Regulierung, Governance und Sicherheit umfasst. Es geht darum, KI auf verantwortungsvolle Weise zu entwickeln, und konzentriert sich eher auf den Betrieb und die Entwicklung von KI.
Haben diese Definitionen Einfluss auf Ihren individuellen Arbeitsrahmen für KI?
Olivia: Die Unterscheidung zwischen KI-Ethik und verantwortungsbewusster KI ist allgemein anerkannt, aber ich denke, dass mein Rahmenwerk auf der Seite der verantwortungsbewussten KI ins Spiel kommt; es konzentriert sich darauf, wie man verantwortungsbewusste KI strategisch umsetzt und welche Lücken innerhalb einer Organisation bestehen.
Wenn Sie Unternehmen beraten, was sind die am häufigsten gestellten Fragen?
Olivia: Unternehmen in Hochrisikobranchen - Finanzen, Gesundheit oder Medien - konzentrieren sich auf das Risiko. Die häufigsten Fragen, die mir gestellt werden, lauten: "Sind wir gesetzeskonform? Auf welche Art von Vorschriften müssen wir achten? Welche Arten von Risiken sind mit unseren spezifischen Anwendungsfällen verbunden?" Diese Unternehmen haben eine risikobasierte Denkweise und konzentrieren sich darauf, ihr Unternehmen zu schützen und sicherzustellen, dass sie nicht absichtlich Schaden anrichten.
Ich arbeite auch mit Unternehmen in kreativeren Bereichen zusammen, die einen innovationsbasierten Ansatz für KI-Ethik und verantwortungsvolle KI verfolgen. Diese Unternehmen fragen sich: "Wie können wir KI zu einem Wettbewerbsvorteil machen? Wie können wir etwas wie Datenschutz, Fairness oder Transparenz zu einem Wettbewerbsvorteil machen, der uns von der Konkurrenz abhebt?"
Beginnen Unternehmen damit, im Zuge der Entwicklung neuer Möglichkeiten von KI Standards zu setzen? Oder interpretieren sie eher die Gesetzgebung?
Olivia: Dies ist eine große Debatte, die in der Europäischen Union (EU) geführt wird. Wichtige Akteure sind besorgt, dass die vorgeschlagene Verordnung, das EU-KI-Gesetz, zu streng ist und dass Politik und Regulierung die besten KI-Praktiken leiten werden, anstatt den Unternehmen Raum zu geben, die besten KI-Praktiken zu gestalten. Sollten Unternehmen das Tempo der Innovation beeinflussen? Oder liegt dies in der Verantwortung der gesetzlichen Organe?
Ethik ist eine Grauzone, in der es gilt, ein Gleichgewicht zu finden und verschiedene Kontexte zu berücksichtigen. Es gibt keine schwarzen und weißen Antworten. Aber Schwarz-Weiß-Antworten ebnen den Weg zu Gesetzen und Vorschriften, die dann zur Grundlage werden. Das ist zwar das, was wir tun müssen, aber das heißt nicht, dass wir es auch tun sollten.
Wer sollte mit am Tisch sitzen, wenn es darum geht, den besten Ansatz für KI zu finden?
Olivia: Wir brauchen sowohl den öffentlichen als auch den privaten Sektor. Wir müssen das öffentliche Interesse im Auge haben, aber die Menschen im privaten Sektor kennen die Technologie am besten. Das Gleichgewicht zwischen öffentlichem und privatem Sektor ist unglaublich wichtig. Der öffentliche Sektor trägt zum sozialen Wohl bei, während der private Sektor sein Fachwissen einbringt.
Ich würde auch gerne mehr Ethiker an diesem Tisch sehen. Eine weitere Herausforderung, mit der wir im Bereich der KI konfrontiert sind, ist die Frage, wie wir den Erfolg messen. Die Werkzeuge, die wir verwenden, stimmen nicht unbedingt mit dem überein, was wir als Kultur, als Gesellschaft, als Weltbürger von ihnen erwarten. Und wenn nicht jemand mit am Tisch sitzt, etwa ein Ethiker, der sich auf die langfristigen Auswirkungen konzentriert und diese als Erfolgsmaßstab verwendet, werden wir ein Ungleichgewicht feststellen.
Viele dieser Fragen existieren in der Grauzone, und es ist schwierig, mit ihnen umzugehen. Wir brauchen Menschen mit unterschiedlichen Denkweisen an einem Tisch.
Beschleunigt KI die Notwendigkeit, das Rechtssystem zu ändern?
Olivia: Meiner Meinung nach, ja. Wir befinden uns an einem Punkt, an dem wir uns anpassen und weiterentwickeln müssen. Als das EU-KI-Gesetz verabschiedet wurde, war von generativer KI noch keine Rede. Aber dann wurde ChatGPT veröffentlicht, was die Entwicklung des EU-KI-Gesetzes ins Stocken brachte, weil die Gesetzgeber herausfinden mussten, wie sie einem neuen KI-Modell Rechnung tragen sollten.
Generative KI gab es zwar schon vor ChatGPT, aber es handelte sich dabei nicht um eine weit verbreitete Art von Architektur. Die Tatsache, dass die KI-Entwicklung schneller voranschreitet als die KI-Regulierung, ist ein deutlicher Hinweis darauf, dass wir die Funktionsweise einiger Rechtssysteme überdenken müssen. Wir müssen entweder die Vorschriften anpassungsfähig machen, damit sie mit der Entwicklung der KI mitwachsen können, oder die Rückkopplungsschleifen verkürzen, um mit der technologischen Entwicklung Schritt halten zu können.
Dass die Technologie schneller voranschreitet als die Regierungen, ist ein altes Problem. Sie nennen dies ein Demokratiedefizit. Können Sie das erklären?
Olivia: Eine der Herausforderungen, mit denen Unternehmen konfrontiert sind, ist das Fehlen von Feedback-Schleifen, wie z. B. Gespräche mit Nutzern und Experten in diesem Bereich, in Entwicklungsprozessen.
Ein Start-up-Unternehmen im Gesundheitswesen kann beispielsweise Software für Krankenschwestern und -pfleger entwickeln, aber es fehlt die Praxis, mit den Krankenschwestern und -pflegern zu sprechen, um ihre Bedürfnisse zu verstehen. Nur weil ein Unternehmen eine Software entwickelt, heißt das noch lange nicht, dass es die besten Lösungen für einen bestimmten Berufszweig kennt.
Die Unternehmen müssen beginnen, mit Experten vor Ort zu sprechen, und Feedbackschleifen und demokratischen Input einrichten. Dies ist die Grundlage dafür, wie eine Softwareplattform und ein KI-System aussehen könnten.
Braucht es eine globale Koordination rund um KI?
Olivia: Ich denke, eine der einzigartigen Herausforderungen der KI ist, dass diese Systeme einen globalen Maßstab erreichen können. Aber die Art und Weise, wie wir mit Technologie umgehen, ist stark von verschiedenen Kulturen beeinflusst.
Wir brauchen zwar eine globale Kommunikation, um die Hauptrisiken der KI zu bewältigen, aber wenn es um spezifische Risiken oder spezifische Anwendungen geht, ist immer noch kulturelle Sensibilität gefragt. Das macht die globale Zusammenarbeit schwierig. Nehmen wir China und die Vereinigten Staaten. Jedes Land hat eine ganz andere Einstellung zu KI. Wie können wir dem Rechnung tragen, wenn wir eine globale Zusammenarbeit anstreben?
Gibt es Länder, die bei der globalen Koordinierung einen Vorsprung haben?
Olivia: Wir beobachten gerade, dass die Länder aufholen und die Notwendigkeit einer aktiveren Rolle in der KI-Entwicklung erkennen.
Bislang wurde die KI vom Privatsektor vorangetrieben. Jetzt sehen wir, dass die Vereinigten Staaten Durchführungsverordnungen erlassen haben, und auch andere Großmächte beginnen, eine größere Rolle zu spielen. Aber es gibt Unterschiede im Ansatz. So verfolgt das Vereinigte Königreich beispielsweise einen innovationsbasierten Ansatz, während die EU einen risikobasierten Ansatz verfolgt.
Kommen wir nun zur Frage der Rechenschaftspflicht. Sind wir in der Lage, KI zur Rechenschaft zu ziehen?
Olivia: Das ist immer noch eine große Frage. Als Ethikerin werde ich sagen, dass es immer Schuldzuweisungen geben wird. Die Schuld wird immer einer Person zugewiesen werden müssen, nicht einem System.
Aber letzten Endes müssen wir uns an unsere Rechtssysteme halten. Wir können kein KI-System strafrechtlich verfolgen; wir müssen eine Person oder ein Unternehmen strafrechtlich verfolgen. Auch wenn es sich so anfühlt, als könnten wir uns hinter diesen Systemen verstecken, können wir das nicht. Es wird immer rechtliche Konsequenzen geben.
Sollten Nutzer von KI-generierten Entscheidungen oder Eigentümer von KI-Systemen zur Rechenschaft gezogen werden?
Olivia: Es kann unglaublich schwierig sein, festzustellen, ob ein Schaden entstanden ist. Als Nutzer kann man sagen: "Ich habe das Gefühl, dass etwas nicht stimmt". Oder: "Ich weiß nicht, ob ich diese Technologie auf eine andere Art erleben sollte."
Die Forschung auf dem Gebiet der verantwortungsvollen KI und der KI-Ethik ermöglicht es uns, eine Störung im System präventiv und präzise zu erkennen. Wir bewegen uns weg von einer Zeit, in der man sich der Verantwortung entziehen kann, indem man sagt: "Wir haben es nicht gewusst".
Hätte man rückblickend die sozialen Medien aus ethischer Sicht besser handhaben können?
Olivia: Es hätte engere Rückkopplungsschleifen in Bezug auf die Ethik geben können, in denen wir in der Lage gewesen wären, negative Konsequenzen zu erkennen und die Kernstruktur unseres Umgangs mit sozialen Medien zu ändern. Wir nutzen die sozialen Medien nun schon so lange, dass es schwierig wäre, zurückzugehen und Änderungen vorzunehmen.
Als Facebook beispielsweise die Gefällt mir-Schaltfläche einführte, verfügte es nicht unbedingt über die richtigen Kontrollmechanismen, um die Auswirkungen zu verstehen und diese dann in die Produkt- und Funktionsgestaltung einfließen zu lassen.
Die Gefällt mir"-Schaltfläche ist heute fester Bestandteil unserer Nutzung sozialer Medien. Instagram hat sogar eine Funktion eingeführt, mit der die Anzahl der Likes, die ein Beitrag erhält, ausgeblendet wird, um negative Auswirkungen zu bekämpfen, aber das hat zu einem Rückgang des Engagements geführt. Wir wissen, dass die Gefällt mir-Schaltfläche diese negativen Auswirkungen hat, aber wir können sie nicht hinter uns lassen.
Hätte es früher eine ethische Feedbackschleife gegeben, hätten wir uns anpassen können. Wir müssen auch die Bescheidenheit haben, zu sagen: "Wir haben etwas kaputt gemacht, was wir nicht hätten tun sollen, aber wir werden versuchen, es zu beheben."
Ist das eine zu große Verantwortung, die man von einer Gruppe von Unternehmern erwarten kann?
Olivia: Das Leben ist ein Gleichgewicht aus Gutem und Schlechtem, und das werden wir nie überwinden können. Darin unterscheide ich mich von vielen Ethikern - mir ist klar, dass ich nicht jedes Unternehmen oder jede Person mit einer anderen Denkweise erreichen kann.
Bei meiner Arbeit stelle ich fest, dass der Wunsch nach etwas anderem wächst, dass die Arbeit mehr wertorientiert ist und dass die Technologie einem größeren Zweck dient als nur dem, was das Marketingteam herausbringt.
Es wird immer schlechte Akteure geben. Aber ich glaube, dass sich vor allem im Silicon Valley ein Wandel vollzieht: "Warum verändern wir die Welt nicht zum Besseren, anstatt sie nur um der Veränderung willen zu verändern?"
Sind Sie insgesamt optimistisch?
Olivia: Man hat mich liebevoll die optimistische Ethikerin genannt, wegen der Arbeit, die ich geleistet habe, und der Veränderungen, die ich gesehen habe. Ich arbeite mit Menschen zusammen, die Erfolg haben wollen. Und man kann Ethik und Erfolg in der gleichen Hand halten; sie müssen nicht im Widerspruch zueinander stehen. Das habe ich in der Praxis gesehen, und ich habe die Ergebnisse gesehen.
Ein werteorientierter Ansatz im Geschäftsleben kann zu besseren Technologien, Produkten, Unternehmen und Menschen hinter den Kulissen führen. Ich bin optimistisch, denn ich habe den Wandel gesehen, der sich bereits vollzieht. Und je mehr Erfolgsgeschichten wir haben, desto mehr Schwung wird sich entwickeln.
Als Investoren denken wir in vielerlei Hinsicht über Risiken nach. Hilft verantwortungsvolle KI, das technologische Risiko zu verringern?
Olivia: Kürzlich haben das Massachusetts Institute of Technology (MIT) und die Boston Consulting Group (BCG) einen Bericht veröffentlicht, der die Arbeit, die ich mache, mit einer schönen Zahl belegt. Darin wird festgestellt, dass Unternehmen, die verantwortungsvolle KI-Praktiken anwenden, das Risiko von KI-Fehlschlägen um 28% senken, was enorm ist, da die KI-Risiko-Fehlerquote normalerweise zwischen 86% und 93% liegt.
Verantwortungsvolle KI ist eine gute Geschäftspraxis und trägt dazu bei, das Risiko von Entwicklungsprozessen zu verringern. In Kombination mit einer Ethik-Ebene haben Unternehmen das Potenzial, sich in ihrer Branche als führend zu etablieren. Und es ist riskanter, keine verantwortungsvolle KI zu praktizieren, als in diese Praktiken zu investieren.