Matthias Spielkamp ist Mitgründer und Geschäftsführer von AlgorithmWatch. Er ist Mitglied im Beirat des Internet Governance Forums Deutschland (IGF-D) in der Gruppe „Zivilgesellschaft“.

Matthias Spielkamp ist Mitgründer und Geschäftsführer von AlgorithmWatch. Er ist Mitglied im Beirat des Internet Governance Forums Deutschland (IGF-D) in der Gruppe „Zivilgesellschaft“.

© Manuel Kinzer

Sie beschäftigen sich mit „algorithmischer Entscheidungsfindung“ und ihren Auswirkungen. Was kann man sich darunter vorstellen?

Ein Beispiel, das in Deutschland jeder sofort versteht, ist die Bonitätsprüfung, auch „Scoring“ genannt. Firmen prüfen, ob jemand kreditwürdig ist und auf dieser Grundlage wird entschieden, ob jemand zum Beispiel einen Kredit oder einen Mobilfunkvertrag bekommt. Dazu werden Systeme eingesetzt, die große Datenmengen analysieren und am Ende ein Ergebnis ausspucken. Auf der Grundlage dieses Ergebnisses werden dann Entscheidungen getroffen, die eine große Bedeutung im Leben fast aller Menschen besitzen.

Hier ist es unserer Ansicht nach wichtig, eine Diskussion darüber zu führen, wie solche Daten verwendet und wie diese Systeme reguliert werden sollten. Ein weiteres Beispiel ist die Frage, welche Inhalte auf Social-Media-Plattformen zu sehen sein sollten und welche nicht.

Warum sind solche automatisierten Systeme ein Thema für das Internet Governance Forum (IGF)?

Sie sind ein typisches Thema für das IGF, weil viele Schwierigkeiten erst durch den grenzüberschreitenden Charakter des Internets entstehen. Auf EU-Ebene und in anderen politischen Foren der Internetregulierung wird beispielsweise zunehmend die Forderung erhoben, dass strafbare Inhalte sehr schnell überprüft und gegebenenfalls gelöscht werden müssen. Weil in sozialen Netzwerken dann Millionen von Posts sehr schnell überprüft werden müssen, geht das nur mit automatisierten Techniken.

Das wiederum ist kontrovers, weil automatisierte Systeme dann über die Meinungs- und Äußerungsfreiheit mit entscheiden. Sie müssten etwa zwischen einer Verleumdung und einer Parodie unterscheiden. Diese Diskussion ist gerade durch die Urheberrechtsreform der EU und die massiven Proteste gegen die so genannten Upload-Filter in die Schlagzeilen geraten. Solche Fragen gehören im Moment zu den am heftigsten diskutierten Themen der Internet Governance.

Die Organisation AlgorithmWatch, die Sie mitgegründet haben, will solche Algorithmen genauer untersuchen und einordnen. Wie gehen Sie dabei vor?

Es gibt verschiedene Wege. Einer davon ist die klassische journalistische Berichterstattung. Zum Beispiel gibt es in den Niederlanden ein Computersystem, das herausfinden soll, ob jemand unerlaubt Transferleistungen wie Sozialhilfe erhält. Wir haben dazu bei den verantwortlichen Behörden nachgefragt und die Ergebnisse veröffentlicht.

Ein weiterer Weg sind Recherchen, bei denen Bürgerinnen und Bürger uns bestimmte Daten spenden, an die man sonst nicht kommen würde. Wir analysieren diese Daten, um daraus Schlüsse zu ziehen, wie ein bestimmtes System funktioniert – etwa die unterschiedliche Gewichtung von Suchergebnissen bei Google oder das Scoring-Modell der Schufa. All das wird „Algorithmic Accountability Reporting“ genannt, also auf Deutsch etwa: Berichterstattung, mit der Algorithmen kontrolliert werden.

Dieser Einsicht in die Algorithmen stehen zum Beispiel Geschäftsgeheimnisse oder andere Interessen gegenüber. Wieviel Transparenz soll es geben?

Zwischen dem Geheimhaltungsinteresse der Unternehmen und dem Informationsinteresse der Öffentlichkeit muss eine Balance gefunden werden. Wo diese Balance liegt, hängt vom konkreten Fall ab. Würden wir zum Beispiel die genaue Funktionsweise des Schufa-Scorings veröffentlichen, würde das wahrscheinlich zu einem Rechtsstreit führen. Die Schufa würde sagen: Das ist unser Geschäftsgeheimnis. Und es gibt gute Gründe für Geheimhaltung, etwa Investitionsschutz für Unternehmen.

Zudem kann vollständige Transparenz dazu führen, dass ein System nicht mehr funktioniert. Das zeigt sich etwa bei Suchergebnissen. Wenn genau bekannt wäre, wie der Google-Algorithmus die Ergebnisse sortiert, ließen sie sich leichter manipulieren, damit die eigenen Suchergebnisse oben stehen. Dennoch sind wir der Ansicht, dass bei vielen algorithmischen Systemen die Öffentlichkeit im Moment zu sehr im Dunkeln gelassen wird.

Es gibt verschiedene Ansätze, wie solche automatisierten Systeme beaufsichtigt werden könnten, zum Beispiel ein Algorithmen-TÜV. Was halten Sie davon?

Wir haben auf diese Frage noch keine einfache Antwort. Der Vergleich mit dem TÜV ist zugleich gut und schlecht. Er ist eine Institution mit einer gesetzlichen Grundlage und der Fähigkeit, bestimmte Normen durchzusetzen. In der Straßenverkehrsordnung steht beispielsweise, wann ein Auto verkehrstüchtig ist. Wer nicht zum TÜV geht, bekommt keine Plakette; wer ohne sie unterwegs ist, ist nicht versichert und kann ein Bußgeld oder eine Strafe bekommen. Zugleich hat der TÜV auch die nötige Expertise. Insofern passt der Vergleich für Automatisierungsprozesse.

Unpassend ist die Analogie jedoch, weil schwer vorstellbar ist, dass eine einzelne Institution Algorithmen in völlig unterschiedlichen Bereichen überprüfen kann – etwa beim Hochgeschwindigkeitshandel an Börsen, der Diagnostik von Krankheiten, automatisierten Grenzkontrollen und beim autonomen Fahren.

Daher dürfte es eher auf unterschiedliche Aufsichtsmechanismen in verschiedenen Bereichen hinauslaufen. Das ist auch schon jetzt der Fall, zum Beispiel gibt es das Bundesinstitut für Arzneimittel und Medizinprodukte, das für bestimmte medizinische Apps zuständig ist. Der Finanzmarkt dagegen wird von einer anderen Bundesanstalt beaufsichtigt, der BaFin.

Was erwarten Sie sich vom IGF – sollte es Lösungen für diese Fragen finden?

Auf internationaler Ebene geht es zunächst um eine Verständigung darüber, was eigentlich wünschenswert ist. Realistisch muss man sagen: Es ist praktisch nicht vorstellbar, dass zum Beispiel eine neue UN-Organisation gegründet wird, die Algorithmen im Internet beaufsichtigt, oder dass internationale Verträge dazu erarbeitet werden. Und es wäre auch die Frage, ob das eigentlich wünschenswert ist.

Das Thema der Algorithmen hat das IGF bereits in den vergangenen zwei Jahren beschäftigt. Auch 2019 wird es mit Sicherheit eine sehr große Rolle spielen, etwa unter dem Schlagwort der Künstlichen Intelligenz. Allerdings wird es bislang auf einer sehr hohen Abstraktionsebene diskutiert. Es ist begrüßenswert, dass es zum Beispiel eine Diskussion über ethische Richtlinien beim Einsatz automatisierter Systeme gibt. Aber wirklich handhabbar wird es erst auf einer konkreteren Ebene. Zum Beispiel: Wie einigen wir uns darauf, welche automatisierten Technologien in sozialen Netzwerken eingesetzt werden können? Sollte es den Unternehmen überlassen bleiben oder sollte durch Gesetze Druck aufgebaut werden?

Es ist gut, dass es solche Diskussionen auf dem IGF gibt – gerade weil es dazu ganz unterschiedliche Vorstellungen gibt. Zudem hat das IGF als UN-Konferenz eine lange und gute Tradition, auch Menschen aus den Ländern des Globalen Südens einzubeziehen, die ihre Standpunkte sonst zu selten einbringen können. Sie sind von diesen Entwicklungen sehr betroffen, etwa durch Kredit-Scoring oder Identitätsmanagement. Beim IGF haben sie die seltene Möglichkeit, mitzureden und ihre Interessen gegenüber Unternehmen und Regierungen aus dem Globalen Norden darzulegen, die diese Entwicklungen vorantreiben. Das ist viel wert.