Warum künstliche Intelligenz ohne Vielfalt undenkbar ist

Von Danny Guillory

Erinnern Sie sich noch an die Staubsaugerroboter, die vor einigen Jahren der große Renner waren? Eine so pfiffige wie nützliche Neuheit – und ohne Absicht ein starkes Argument dafür, dass Vielfalt beim Thema künstliche Intelligenz eine entscheidende Rolle spielt.

In Südkorea „fraß“ eines Nachts ein Staubsaugerroboter das Haar einer Frau, die – wie es dort üblich ist – auf dem Boden schlief. Der Roboter hatte keine böswillige Absicht – er handelte so, wie er programmiert war. Und das ist der springende Punkt: Die Auswirkungen kultureller Unterschiede waren während des Produktentwicklungsprozesses nicht berücksichtigt worden. Die Frage „Wird jeder, der dieses Produkt benutzt, auf einem hochgestellten Bett schlafen, und was ist für diejenigen zu berücksichtigen, die das nicht tun?“ hatte sich niemand gestellt.

Da künstliche Intelligenz sich immer stärker verbreitet – wobei Haushaltsroboter nur einen von zahlreichen Anwendungsbereichen darstellen –, ist Vielfalt in den einschlägigen Entwicklungsteams wichtiger denn je. Normalerweise konzentrieren sich Organisationen auf die augenfälligen Aspekte der Vielfalt: ethnische Herkunft, Geschlecht und Alter. Damit werden einige der wichtigsten Aspekte der Vielfalt vernachlässigt: Kultur, Tradition und Religion. Wenn man das volle Spektrum der Vielfalt nicht berücksichtigt, könnte dies für viele Bevölkerungsgruppen, denen künstliche Intelligenz helfen soll, schwerwiegende Auswirkungen haben.

Die drei Dimensionen der Vielfalt

Vielfalt umfasst drei übergeordnete Dimensionen: menschliche Vielfalt, kulturelle Vielfalt und systemische Vielfalt. Menschliche Vielfalt bezieht sich auf unveränderliche Eigenschaften wie Hautfarbe, ethnische Herkunft und Alter – die typischen Merkmale von Vielfalt. Kulturelle Vielfalt umfasst Aspekte, die zwar zum Wesenskern einer Person gehören, aber veränderbar sind, wie zum Beispiel Bildung, Denk- und Arbeitsweise, religiöse und moralische Weltanschauung und Sprache. Schließlich bestimmt die systemische Vielfalt, wie Systeme – beispielsweise Ausbildung, Förderung und Leistungsmanagement – zusammenwirken.

Diese Dimensionen der Vielfalt sind auf jede Geschäftssituation anwendbar, insbesondere wenn es um künstliche Intelligenz geht. Wenn ein Team eingesetzt wird, um eine KI zu entwickeln, ist es entscheidend, dass dieses Team prüft, ob Elemente der menschlichen, kulturellen oder systemischen Vielfalt beim Aufbau des Systems übersehen wurden. Wenn nicht alle diese Dimensionen der Vielfalt im Team vertreten sind, ist es fast ausgeschlossen, dass seine Mitglieder die notwendigen Fragen stellen. Wenn etwas nicht Teil ihrer Lebenswelt ist – wie zum Beispiel das Schlafen auf dem Boden anstatt in einem Bett –, wird es ihnen auch nicht in den Sinn kommen. Dies birgt die Gefahr, dass Aspekte übersehen werden, und könnte langfristig zu schwerwiegenden Problemen führen.

Systemischer Ausschluss führt zu langfristiger Diskriminierung

Als ich in der Personalbeschaffung arbeitete, begann ich erstmals über Vielfalt im Kontext von KI und die damit einhergehenden Konsequenzen nachzudenken. Wer schon einmal auf einem profilbasierten Online-Portal für Personalbeschaffung oder Arbeitsplatzsuche eine Abfrage durchgeführt hat, ist diesem negativen Verstärkungseffekt künstlicher Intelligenz vielleicht schon einmal begegnet.

Betrachten Sie eine typische Bewerberabfrage für eine Fachkraft im Ingenieurwesen: Wenn Sie nur die technischen Qualifikationen für eine Position eingeben, erhalten Sie eine Liste von weißen Männern. Suchen Sie nun zusätzlich zur technischen Qualifikation nach „Deutscher Ingenieurinnenbund“, um zu sehen, was sich ändert, wird es Sie nicht überraschen, dass eine Liste von Frauen angezeigt wird, die bei Ihrer ersten Abfrage nicht dabei waren. Und würden Sie beispielsweise den Suchbegriff „IQ-Lehrgang: Ingenieurqualifizierung – Systematik des deutschen Bau- und Planungswesens“ eingeben, bekämen Sie eine Liste von Ingenieurinnen und Ingenieuren mit Migrationshintergrund präsentiert, die bei der ersten Abfrage ebenfalls nicht ausgegeben wurden.

Diese beiden letzten Suchergebnisse sind nicht besonders überraschend. Bemerkenswert ist die erste Abfrage: der Standard. KI-Systeme sind so konzipiert, dass sie für eine störungsfreie Benutzererfahrung sorgen. Das programmierte Ziel ist immer ein reibungsloser Ablauf. Ein KI-System käme nicht auf die Idee, dem Nutzer eine völlig andere Abfrage vorzuschlagen, die möglicherweise zu differenzierteren Ergebnissen führt, da ihm keine diesbezüglichen Anweisungen, geschweige denn gesicherten Erkenntnisse einprogrammiert wurden.

Künstliche Intelligenz funktioniert so: Wenn man Profile aus der ersten Abfrage auswählt, lernt das System daraus und liefert bei späteren Abfragen immer wieder Bewerberprofile, die dem gleichen Typ entsprechen. Bei diesem Verfahren kann es passieren, dass bestimmte Personengruppen systematisch ausgeschlossen werden. Wenn die von der KI berücksichtigten Datensätze bestimmte Personengruppen gar nicht erst enthalten, können Probleme oder Herausforderungen, die außerhalb dieser Datensätze liegen, möglicherweise auf lange Sicht überhaupt nicht gelöst werden.

In der Architektur lässt sich das am Beispiel des sozialen Wohnungsbaus in der Zeit vor künstlicher Intelligenz verdeutlichen: Verschiedene Städte in den USA setzten idealisierte Entwürfe aus Europa neben Autobahnen und in anderen weniger attraktiven Lagen ohne oder mit nur wenigen öffentlichen Bereichen oder Grünflächen um. Auf Dauer beeinflusste das negative Umfeld, wie die Menschen dort aufwuchsen und sich entwickelten. Und obwohl diese Orte unter anderem auch die Hip-Hop-Kultur hervorbrachten, überwogen die negativen Folgen eindeutig die positiven. Stellen Sie sich eine Welt vor, in der künstliche Intelligenz weitgehend eigenständige Entscheidungen über Raumplanung und Architektur trifft. Wie kann sichergestellt werden, dass das System über verfügbaren Raum und Licht nachdenkt, damit Menschen nicht im Schatten und ohne Parks leben müssen?

Künstliche Intelligenz muss in diversifizierten Teams entwickelt werden

Es geht nichts über ein Mitspracherecht bei der Diskussion von zukunftsträchtigen Veränderungen. Die technische Weiterentwicklung von künstlicher Intelligenz erfordert eine enge Zusammenarbeit zwischen Unternehmen, Schulen, Regierungsbehörden und anderen Institutionen zur Einbeziehung einer breiteren Gruppe von Entscheidungsträgern.

Gegenwärtig gibt es jedoch zumindest in den USA keine Behörde, die sich mit diesem Problem befasst. AI Now, ein Open-Source-Institut, das sich speziell mit diesen ethischen Überlegungen befassen soll, befindet sich im Aufbau. Die Obama-Regierung hat zu den Auswirkungen von künstlicher Intelligenz auf den Arbeitsmarkt eine Studie durchgeführt. Die diesbezüglichen Pläne seines Nachfolgers sind noch unklar.

Damit liegt die Verantwortung, Vielfalt in KI-Systemen zu gewährleisten, bei den Unternehmen, die diese entwickeln, sowie bei den Führungskräften, die die Entwicklungsteams zusammenstellen. Wenn beispielsweise alle Mitglieder eines Entwicklungsteams gleich aussehen, ist es wahrscheinlich nicht diversifiziert. Dabei müssen neben der ethnischen Herkunft auch Aspekte wie Muttersprache und Mentalität berücksichtigt werden. Ein Mensch aus einem Schwellenland in Asien hat vermutlich eine grundsätzlich andere Weltsicht als sein in Europa aufgewachsener Kollege – und beide werden unterschiedliche, aber gleichermaßen wichtige Fragen stellen. Darüber hinaus gilt es, weitere Eigenschaften zu bestimmen, um das richtige Team zur Lösung eines bestimmten Problems mithilfe der KI zu finden.

Die Weichen zur Vielfalt in künstlicher Intelligenz müssen jetzt gestellt werden

Künstliche Intelligenz und maschinelles Lernen sind relativ jung. Das heißt, die Diskussionen über Vielfalt finden schon früh statt – sowohl zeitlich gesehen als auch in Bezug auf die Entwicklung. Die Teams werden erst noch gebildet: Das ist eine gute Voraussetzung.

Hilfreich ist auch, dass heute das Bewusstsein für Vielfalt sehr viel stärker ausgeprägt ist als noch vor 20 Jahren. Dies wird stark dazu beitragen, dass verschiedene Kulturen und Weltanschauungen in diesen Systemen berücksichtigt werden. Schließlich ist Vielfalt in der künstlichen Intelligenz ein globales Thema, das uns alle betrifft.

Bei der Entwicklung umfassender KI-Systeme geht es nicht nur darum, dass Unternehmen in den USA oder Europa Probleme für andere lösen, sondern darum, Menschen weltweit in die Lage zu versetzen, lokale Probleme mit eigenen Mitteln zu lösen. Dies wiederum unterstreicht, warum es so wichtig ist, diese Bevölkerungsgruppen mit ins Boot zu holen. Wenn diese die Berücksichtigung spezieller Aspekte bei der Entwicklung von künstlicher Intelligenz nicht einfordern, kann es leicht passieren, dass diese unter den Tisch fallen.

Das ist die Herausforderung an die KI-Community. Zum Glück ist es noch früh genug, es richtig anzugehen. Durch strategische Förderung von Vielfalt kann die Zukunft künstlicher Intelligenz noch besser gestaltet werden.

Dieser Artikel erschien ursprünglich auf Redshift, einer Autodesk-Publikation, um Designer, Ingenieure, Architekten und Hersteller zu inspirieren. Haben Sie Lust auf mehr Inhalt? Abonnieren Sie den Redshift-Newsletter.