© Iakov Kalinin/Fotolia

Chancen für gemeinwohlorientierte Innovationen ergreifen

Ob Technologien akzeptiert werden, entscheidet sich nicht erst bei deren Nutzung. Von Anfang an, bereits in der Entwicklung, sollten sich Innovationen an den Bedürfnissen der Betroffenen orientieren, sagt Julia Gundlach. Die Algorithmenethik-Expertin erklärt im Interview, wie Unternehmen Innovation und Gemeinwohl in Einklang bringen können.

Was ist für Sie persönlich der wichtigste Megatrend?

Mich beschäftigt die Frage, wie der digitale Wandel sich auf unser gesellschaftliches Zusammenleben auswirkt. Der Megatrend „Digitalisierung“ verändert unsere wirtschaftlichen Strukturen schon seit Jahrzehnten, nun wird der Einfluss auf unsere Gesellschaft zunehmend spürbar. Ein Beispiel: Was vor ein paar Jahren noch ein simples digitales Netzwerk von Freundschaften sein sollte, zeigt heute ernsthafte Gefahren für Meinungsvielfalt und Demokratie. Gleichzeitig können digitale Werkzeuge mehr Dialog, Kooperation und Partizipation ermöglichen und damit einen wichtigen Beitrag für gesellschaftliche Teilhabe schaffen. Die Entscheidungen, wie und wofür wir Menschen die digitalen Werkzeuge einsetzen, haben auf jeden Fall gewaltige Auswirkungen.

Sehen Sie Technologieentwicklungen eher als Chance oder Risiko für den Einzelnen und für die Gesellschaft?

Technologie ist erst einmal nur ein Werkzeug. Ist ein Traktor eine Chance oder ein Risiko für die Landwirtschaft? Das kommt ganz darauf an, wie man ihn einsetzt. Gleiches gilt für jegliche Technologieentwicklung: Technologie wird von Menschen entwickelt; wir entscheiden über ihren Einsatz und sind verantwortlich für ihre Auswirkungen. Wenn wir die Risiken von digitaler Technologie mindern und ihre Chancen für gesellschaftliche Belange nutzen wollen, müssen wir allerdings wichtige Stellschrauben ändern. Wir brauchen eine breite gesellschaftliche Debatte über ihren Einsatz, also wozu wir beispielsweise Algorithmen und KI in einem bestimmten Bereich nutzen möchten. Wir brauchen bessere Transparenz und wirksame Kontrollinstrumente, die z.B. Diskriminierung verhindern. Wir brauchen mehr Vielfalt in den Teams, die Technologie entwickeln und ihre Ziele definieren. Und wir brauchen einen systematischen Kompetenzaufbau bei diesem Thema – vom Schüler bis zur Vorstandsvorsitzenden. Wenn diese Stellschrauben gut justiert sind, können digitale Technologien uns Menschen wirkungsvoll dabei helfen, besser mit komplexen Datenmengen umzugehen und effiziente, konsistente und auch fairere Entscheidungen zu treffen. Diese Chance für gemeinwohlorientierte Innovationen sollten wir ergreifen.

 

„Wir brauchen eine breite gesellschaftliche Debatte über den Einsatz von Technologien.“

Was verstehen Sie konkret unter „gemeinwohlorientierte Innovationen“? Wie können Innovationen und Gemeinwohl in Einklang gebracht werden?

Digitalisierungsbestrebungen werden aktuell oft einseitig auf Effizienz fokussiert und vorangetrieben. Doch der kurzfristige Blick auf unternehmerisches Wachstum und Profit führt selten zu gemeinwohlorientierter Innovation oder steht sogar im Widerspruch dazu. Ethischen Anforderungen wiederum wird oft nachgesagt, dass sie statt Gewinnen nur Hürden für unternehmerisches Handeln produzierten. Genau das ist allerdings ein Trugschluss: Eine frühzeitige Auseinandersetzung mit ethischen Fragen kann für ein Produkt am Ende ein wesentlicher Wettbewerbsvorteil sein. Wenn Innovationen von Anfang an die Bedürfnisse der Betroffenen berücksichtigen, können nicht nur Fehler vermieden, die Akzeptanz gesteigert und somit die Wirkung verbessert werden, sondern auch langfristig wirtschaftliche Vorteile entstehen. Für gemeinwohlorientierte Innovationen braucht es ein dreifaches Umdenken:

  1.  Statt den Blick auf die Erfindung als solche zu richten, sollte er besser auf die praktische Umsetzung gelenkt werden: Es braucht nicht notwendigerweise mehr digitale Hilfsmittel und Technologien um ihrer selbst willen; entscheidend ist eine nutzenorientierte Anwendung zur Lösung unserer gesellschaftlichen Herausforderungen und Ziele.
  2. Statt auf das technisch Mögliche auf das gesellschaftlich Sinnvolle konzentrieren: Digitale Technologien bieten keine einfachen Lösungen für komplexe soziale Probleme. Statt „Techno-Solutionism“ braucht es einen sozio-technischen Ansatz, der anerkennt, dass die nachhaltige Wirkung von Innovationen von den bestehenden Strukturen und Praktiken abhängt, in denen sie sich entfalten sollen.
  3. Statt den Menschen neue Technologien von oben herab vorzusetzen auf tatsächliche Bedarfe eingehen: Wirksame Innovationen greifen die Bedürfnisse aller Betroffenen von vornherein auf. Die Aussicht auf den konkreten Nutzen überwindet Skepsis gegenüber Veränderung und schafft Vertrauen in digitale Innovationen.

Sie sprachen davon, dass Gemeinwohlorientierung und wirtschaftlicher Fortschritt beim digitalen Wandel im Widerspruch stehen können. Warum ist das so?

Wenn der wirtschaftliche Fortschrittsgedanke allein auf „höher, weiter, schneller“ für ein paar Wenige beruht, kommt es tatsächlich zum Widerspruch. Gemeinwohlorientierung mit Blick auf den digitalen Wandel muss den Anspruch erfüllen, Teilhabe der gesamten Gesellschaft zu ermöglichen. Dafür bedarf es insbesondere auch der Berücksichtigung von Interessen marginalisierter Gruppen. Der Widerspruch zwischen Fortschritt und Gemeinwohlorientierung löst sich auf, wenn die Bedürfnisse der von der Technologie Betroffenen von Anfang an in den Mittelpunkt gestellt werden und diese Personen auch an der Technologieentwicklung beteiligt sind. Leider fokussieren wir im Diskurs häufig die ökonomischen Motive, wie eine Studie der Bertelsmann Stiftung zeigt: In der deutschen Medienberichterstattung über Algorithmen und Künstliche Intelligenz (KI) dominierten in den vergangenen 15 Jahren wirtschaftliche und technische Perspektiven, während den gesellschaftlichen Aspekten deutlich weniger Aufmerksamkeit geschenkt wurde. Diese fehlende Vielfalt an Themen und Akteuren sollte von Politik und Zivilgesellschaft als Anstoß genommen werden, um gemeinsam mit den Medien den Algorithmen-Diskurs proaktiver, inklusiver und differenzierter zu gestalten. Dann können auch die vielen guten Ideen für gemeinwohlorientierte Innovationen mehr Gehör finden.

„Bedürfnisse der von der Technologie Betroffenen müssen von Anfang an in den Mittelpunkt gestellt werden.“

Wie stark sollte die Bevölkerung Bedürfnisse artikulieren können, um eine Ablehnung gegenüber Neuem zu verhindern? Besteht nicht die Gefahr, dass zu viele verschiedene Interessen innovative Technologien ausbremsen?

Viele digitale Transformationsprozesse scheitern daran, dass sie über die Köpfe der Betroffenen hinweg umgesetzt werden sollen. Top-down-Zielvorgaben führen oft zu langfristigen Abwehrhaltungen. Wirksame Innovationen in teilhaberelevanten Bereichen greifen die Bedürfnisse aller Betroffenen von vornherein auf. Konkret bedeutet das beispielsweise für die Entwicklung einer digitalen Anwendung in der Pflege, dass von der Seniorin und ihren Angehörigen über den Pfleger, die Physiotherapeutin und den Sozialarbeiter bis hin zur Vertreterin des Wohlfahrtsverbands alle involviert sind und ihre spezifischen Bedürfnisse formulieren können. Denn sie kennen die Bedingungen und Herausforderungen für die alltägliche Nutzung digitaler Hilfsmittel am besten. Erst ein solcher Perspektivabgleich mit der Praxis und ein iteratives Testen an der Lebenswirklichkeit machen eine innovative Idee zu einer vielversprechenden Lösung für ein soziales Problem. Ein solch partizipativer Prozess dauert natürlich länger, steigert aber erwiesenermaßen die Akzeptanz und damit nachhaltig die Wirkung einer Veränderung. Studien belegen: Wer etwas selbst mitentwickelt hat, akzeptiert das Ergebnis oft sogar dann, wenn es nicht den eigenen Interessen entspricht.

Wie müssen die Entwicklungsphasen von Innovationen konkret gestalten werden, um Vertrauen in die Technologie und Akzeptanz zu befördern?

Genau diese Frage hat das Projekt „Ethik der Algorithmen“ der Bertelsmann Stiftung mit etwa 500 Personen diverser Hintergründe diskutiert und daraus die „Algo.Rules“ entwickelt. Diese neun Regeln geben Orientierung, welche Aspekte zu beachten sind, um algorithmische Systeme gemeinwohlorientiert zu gestalten: zum Beispiel die Verantwortung definieren, die Nachvollziehbarkeit sicherstellen und die Wirkung überprüfen. Diese Überlegungen sind für alle Phasen wichtig, von der Planung über die Entwicklung und Programmierung bis hin zum Einsatz eines algorithmischen Systems. Die „AlgoRules“ richten sich dabei nicht nur an Programmierende, sondern auch an Führungskräfte und diejenigen, die Software einsetzen – also alle, die die gesellschaftliche Wirkung algorithmischer Systeme beeinflussen. Der Beteiligungsprozess hat deutlich gemacht, welche unterschiedlichen Blickwinkel es auf die Ziele und Funktionsweisen von Technologie gibt und dass es dafür eine dialogbasierte Entwicklung braucht, die zwischen diesen Sichtweisen vermittelt und die ethischen Fragen offenlegt.

Was müssen Unternehmen noch beachten, um algorithmische Systeme „ethisch“ zu entwickeln?

Viele Unternehmen haben sich bereits zu ethischen Prinzipien bekannt oder gar eigene Ethik-Guidelines entwickelt. Damit diese Prinzipien Wirkung entfalten, müssen sie konkret operationalisiert und mit Leben gefüllt werden. Der Begriff „Transparenz“ zum Beispiel kommt in fast allen Ethik-Guidelines vor. Oft bleibt aber unklar, was das in der Praxis bedeutet. Wird der Code offengelegt? Gibt es für Nutzende eine gute Erklärung, wie der Algorithmus funktioniert? Oder genügt es, klar zu kennzeichnen, wenn eine Maschine über Menschen entscheidet? Solche Fragen müssen für unterschiedliche Zielgruppen – von Software-Entwickelnden bis zum Vorstand – ausdifferenziert werden, um aussagekräftige Antworten für den Arbeitsalltag geben zu können. Um Prinzipien in die Praxis umzusetzen, ist viel Arbeit nötig. Unternehmen können aber auf einige Vorarbeiten zurückgreifen: Umsetzungsleitfäden zu den erwähnten „Algo.Rules“ oder das KI-Ethik-Label der AI Ethics Impact Group helfen bei der Anwendung von ethischen Regeln für den eigenen Kontext.

Wie kann Politik hier unterstützen?

Die Politik setzt den Rahmen für unternehmerisches Handeln und sollte deutlich machen, dass Selbstregulierung für risikoreiche Anwendungen nicht ausreicht. Sie sollte eine breite gesellschaftliche Debatte über auftretende Wertekonflikte anstoßen und für besonders kritische Fälle, wie etwa bei autonomen Kampfdrohnen oder flächendeckender Gesichtserkennung im öffentlichen Raum, auch nicht vor Verboten zurückschrecken. Neben der Risikobegrenzung hat die Politik aber auch die Verantwortung, die schlummernden Potentiale der Digitalisierung fürs Gemeinwohl zu heben. Sowohl auf europäischer als auch auf nationaler Ebene sollten inklusive und nachhaltige Technologieentwicklungen und -anwendungen gezielt gefördert werden.

„Technologieoffenheit kann durch positive Erfahrungen gestärkt werden.“

Die Corona-Pandemie hat Digitalisierungsprozesse beschleunigt und den Einsatz von digitalen Tools potenziert. Glauben Sie, die Pandemie hat Deutschland technologieoffener gemacht?

Auf jeden Fall sind die digitalen Defizite Deutschlands in der Pandemie sehr deutlich geworden. Schulen, der öffentlichen Verwaltung und auch vielen Unternehmen verleiht das zumindest einen lange überfälligen Digitalisierungsschub. Gleichzeitig wurden in dieser Zeit wichtige gesellschaftliche Debatten geführt, wie bei der Corona-Warn-App über das Verhältnis von Datenschutz zu Funktionalität. Dieses Aushandeln von Wertekonflikten ist anstrengend, aber enorm wichtig. Das zeigt auch eine Studie, in der wir gemeinsam mit der NGO AlgorithmWatch beleuchtet haben, wo automatisierte Entscheidungssysteme in Europa in Reaktion auf die Corona-Pandemie eingesetzt wurden. Es zeigt sich, dass die Einhaltung von Grundrechten in der Pandemie längst nicht überall gleich stark gewichtet wird. Die kritische Auseinandersetzung in Deutschland sollten wir nicht einfach als Technologieskepsis abtun. Tatsächlich zeigt eine Umfrage der Bertelsmann Stiftung im Gegenteil, dass in der Bevölkerung eine hohe Bereitschaft besteht, Gesundheitsdaten zu „spenden“, wenn dadurch die medizinische Versorgung verbessert und die universitäre Forschung unterstützt werden. Gleichzeitig sind Menschen eher bereit, eine neue Technologie zu nutzen, wenn sie darin einen echten Mehrwert für ihren Alltag erkennen. Technologieoffenheit kann durch positive Erfahrungen gestärkt werden, doch dafür braucht es Anwendungen, die das Leben des Einzelnen spürbar verbessern.

Julia Gundlach arbeitet im Projekt „Ethik der Algorithmen“ bei der Bertelsmann Stiftung und beschäftigt sich dort insbesondere mit den Potentialen algorithmischer Systeme für das Gemeinwohl. Zuvor war sie für die internationale Vernetzung für das vom Bundeswirtschaftsministerium geförderte Projekt „Forum Digitale Technologien“ am Deutschen Forschungszentrum für Künstliche Intelligenz zuständig. Sie hat Volkswirtschaftslehre studiert und einen Master in Public Policy von der Hertie School in Berlin. © Ansichtssache_Britta Schröder