EU richtet Forschungszentrum für algorithmische Transparenz ein

Das Europäische Zentrum für Algorithmische Transparenz wurde am Dienstag in Sevilla offiziell eröffnet. Die spanische Stadt ist die Stadt mit den viertmeisten EU-Beamten in der gesamten Union. Sie beherbergt die Gemeinsame Forschungsstelle (GFS), den internen Forschungsdienst der Europäischen Kommission. [European Commission]

Ein neues von der EU-Kommission eingerichtetes Zentrum wird sich auf die Entschlüsselung von Algorithmus-Blackboxen konzentrieren und will international führend für die Forschung auf diesem Gebiet werden, und die Anwendung der digitalen Vorschriften der EU zu unterstützen.

Das Europäische Zentrum für Algorithmische Transparenz wurde am Dienstag in Sevilla offiziell eröffnet. Die spanische Stadt ist die Stadt mit den viertmeisten EU-Beamten in der gesamten Union. Sie beherbergt die Gemeinsame Forschungsstelle (GFS), den internen Forschungsdienst der Europäischen Kommission.

Als Zweigstelle der GFS wird das Algorithmus-Zentrum die EU-Kommission bei einer der schwierigsten Aufgaben der kommenden Jahre unterstützen: die praktische Umsetzung ihrer umfangreichen digitalen Gesetzgebung durch die Überwachung einiger der reichsten und einflussreichsten Unternehmen der Welt.

„Die Welt schaut uns zu. Und dies ist eine interessante, aber auch herausfordernde Situation, denn wir könnten, wenn wir es gut machen, eine Quelle der Inspiration sein“, sagte Renate Nikolay im Konferenzzentrum in Las Setas, im Herzen von Sevilla, vor der spanischen Staatssekretärin für Digitales Carme Artigas und dem Bürgermeister der Stadt Antonio Muñoz.

Nikolay war Kabinettschefin von Kommissionsvizepräsidentin Věra Jourová, bevor sie als stellvertretende Generaldirektorin in der Digitalabteilung der Kommission landete. Sie ist auch eine Top-Kandidatin für die Übernahme des höchsten Postens der Abteilung, da Roberto Viola, der seit fast einem Jahrzehnt Generaldirektor ist, nächstes Jahr in den Ruhestand gehen wird.

Durchsetzung digitaler Vorschriften

„Wir müssen zeigen, dass wir nicht nur gut darin sind, Regeln zu erlassen, sondern auch darin, Veränderungen herbeizuführen“, fügte Nikolay hinzu. Sie betonte, dass das Ziel darin bestehe, das schädliche Verhalten der Plattformen zu ändern, indem man sie zur Verantwortung ziehe.

Die erste Aufgabe des neuen Zentrums wird es sein, der Kommission wissenschaftliches und technologisches Fachwissen zur Verfügung zu stellen, um das Gesetz über digitale Dienste (DSA) durchzusetzen. Das DSA führt eine besonders strenge Regelung für sehr große Online-Plattformen wie Facebook und Twitter ein, die der direkten Aufsicht der Europäischen Kommission unterstehen werden.

Auf der Grundlage des neuen digitalen Regelwerks der EU müssen Plattformen, die ein „systemisches Risiko“ für die Gesellschaft darstellen können, einen Risikomanagement-Mechanismus einführen. Dieser Mechanismus verpflichtet sie dazu, eine jährliche Bewertung ihres Risikos vorzunehmen und Maßnahmen zur Risikominderung zu ergreifen, die von externen Prüfern kontrolliert werden.

„Empfehlungssysteme moderieren im Wesentlichen unseren gesellschaftlichen Diskurs: Sie bestimmen, welche Nachrichten wir sehen, welcher politischen oder kulturellen Gruppe wir uns anschließen, sie beeinflussen, wie wir wählen“, sagte Krishna Gummadi vom European Lab for Learning and Intelligent Systems.

Wissen ist Macht

Gummadi betonte die Bedeutung unabhängiger Forschung zu den ethischen Auswirkungen von Algorithmen. Er führte Beispiele an, in denen Untersuchungen Verzerrungen in prädiktiven polizeilichen Instrumenten in den Vereinigten Staaten, Preisdiskriminierung auf Online-Marktplätzen, geschlechtsspezifische Verzerrungen auf Stellenbörsen und polarisierende „Filterblasen“ in sozialen Medien aufgedeckt haben.

Trotz dieser ersten Bemühungen sind die interne Funktionsweise von Algorithmen und ihre Auswirkungen auf die Gesellschaft nach wie vor ein weitgehend unerforschtes Thema. Genau hier setzt das neue Algorithmuszentrum an.

Das neue Kompetenzzentrum soll eine Methodik und Dokumentation für die Durchsetzung der neuen Regeln für Algorithmen in Bezug auf Themen wie psychische Gesundheit, Diskriminierung, Hate Speech und Desinformation bereitstellen.

„Wenn man digitale Dienste regulieren will, muss man verstehen, wie Algorithmen funktionieren“, hieß es dazu aus EU-Kreisen.

Zu den Aufgaben gehöre es, die Trainingsdatensätze zu analysieren, um sicherzustellen, dass sie nicht zu Gunsten oder zu Ungunsten einer bestimmten Bevölkerungsgruppe voreingenommen sind, und technische Maßnahmen vorzuschlagen, um dem DSA zu entsprechen.

Die Frage der Kapazität

„Wir befinden uns noch in der Anlaufphase“, räumte Stephen Quest, Generaldirektor der GFS, ein.

Das neue Zentrum wird aus 10 Mitarbeitern der GFS und 20 neuen Mitarbeitern bestehen, die von IT-Experten bis hin zu Sozialwissenschaftlern reichen und für die die Kommission nach eigenen Angaben über 500 Bewerbungen erhalten hat. Während der Forschungsdienst die Verwaltungskosten trägt, werden die Personalkosten durch die Aufsichtsgebühr der DSA gedeckt.

Diese Zahlen erscheinen im Vergleich zu den anstehenden Aufgaben verschwindend gering. Die Kommission geht derzeit von 20 bis 25 sehr großen Online-Plattformen aus, was ungefähr einem Mitarbeiter pro Plattform wie TikTok und Google entspricht.

Was die Kapazitäten angeht, so versicherte Quest den Anwesenden, dass das Algorithmuszentrum nicht isoliert arbeiten wird, sondern ein „Katalysator“ für die Forschungsgemeinschaft sein wird. So sollen Partnerschaften mit öffentlichen Einrichtungen, Forschungszentren und Experten aufgebaut werden.

Die erste Partnerschaft wurde mit dem Pôle d’expertise de la régulation numérique (PEReN) geschlossen – einer französischen Einrichtung, die politische Entscheidungsträger, aber auch Regulierungsbehörden in den Bereichen Datenschutz, Verbraucherschutz und Wettbewerb unterstützt.

Gerard de Graaf, der Leiter der EU-Delegation in San Francisco, sagte, dass sein Büro daran arbeitet, Verbindungen zu führenden US-Forschern von Universitäten wie Stanford und Berkeley aufzubauen.

[Bearbeitet von Nathalie Weatherald]

Abonnieren Sie unsere Newsletter

Abonnieren