Letzte Woche hat die Europäische Kommission bekanntgegeben, das Allheilmittel gegen illegale Inhalte im Netz gefunden zu haben: Automatisierte Internetfilter!

Solche Filter sind bereits in der geplanten neuen Urheberrechtsrichtlinie vorgesehen – in der neuen Mitteilung ‚Illegale Inhalte im Netz bewältigen‘ geht die Kommission noch einen Schritt weiter.

Sie „empfiehlt Internetplattformen nachdrücklich […] automatisierte Erkennungstechnologien einzusetzen und in sie zu investieren“. Plattformen sollen über die Rechtmäßigkeit von Inhalten, die ihre Nutzer*innen hochladen, urteilen, ganz ohne gerichtliche Anordnung oder gar jegliche menschliche Kontrolle: „Onlineplattformen sollen auch in der Lage sein, rasche Entscheidungen zu fällen […] ohne dazu aufgrund einer gerichtlichen Anordnung oder administrativen Entscheidung verpflichtet zu sein“.

Schöne neue Welt: Zensurinfrastruktur, die alles überwacht, was Menschen im Netz hochladen, und Algorithmen, die entscheiden, was wir online sagen und nicht sagen dürfen. Das ist ein Angriff auf unsere Grundrechte.

Es stellt sich die Frage: Funktionieren solche Filter überhaupt? Die Kommission behauptet, dass der freiwillige Einsatz solcher Filter – wie etwa „Content ID“ von YouTube – „gute Ergebnisse erzielt“ habe.

Ach, wirklich? Hier sind Beispiele dafür, wie Filter krasse Fehlentscheidungen treffen – von urkomisch bis verstörend:

cc by-nc-sa liazel

1. Die Katze, die ganz groß raus kam

Der Filter auf YouTube behauptete, in einer 12-sekündigen Aufnahme einer schnurrenden Katze ein Werk von EMI Music identifiziert zu haben. Eine ganz schlimme Schnurrheberrechtsverletzung!

Erkenntnis: Dass nach Jahren der Investition in Filtertechnologien noch dermaßen absurde Fehler passieren, zeigt: Es ist verdammt schwierig, funktionierende Filter zu programmieren – falls es denn überhaupt möglich ist.

2. Urheberrechtsstunde fällt aus

Die Aufnahme einer Vorlesung über das Urheberrecht auf der Harvard Law School wurde vom Urheberrechtsfilter von YouTube entfernt – weil der Professor zur Illustration kurze Ausschnitte von Popsongs abgespielt hatte. Die Verwendung der Clips zu Bildungszwecken war selbstverständlich legal – er kannte die Materie ja. Der Filter hätte das Video besser auf Lehren über das Urheberrecht durchsuchen sollen, statt nur auf Schallwellen unter Urheberschutz!

Erkenntnis: Urheberrechtsschranken sind wesentlich, damit wir die Menschenrechte auf freie Meinungsäußerung und auf Teilnahme am kulturellen Leben wahrnehmen können. Sie erlauben uns unter anderem, Werke zu zitieren, Parodien zu erstellen und sie zu Bildungszwecken zu nützen. Filter können keine Entscheidung treffen, ob die Verwendung eines Werks im Einzelfall von Schranken abgedeckt ist, im Zweifelsfall löschen sie erst mal – damit höhlen sie unsere Grundrechte aus.

3. Urheberrechtsbeschwerde vom Mars

Eine Aufnahme einer Marslandung der NASA wurde als Urheberrechtsverletzung identifiziert – obwohl die NASA sie selbst erstellt hatte, und als Teil der Regierung der USA alles, was sie produzieren, gemeinfrei ist.

Hatten kamerascheue Aliens eine Beschwerde eingereicht? Nein, ein Filter steckte dahinter: Die NASA stellte das Video Fernsehsendern zur Verfügung. Einige dieser TV-Sender meldeten automatisch alles, was sie ausstrahlten, im Filtersystem von YouTube an. Das führte dazu, dass der Upload der NASA selbst als Verletzung der Rechte der TV-Sender interpretiert wurde.

Erkenntnis: Gemeinfreie Inhalte sind bedroht durch Filter, die nur auf urheberrechtlich geschützte Inhalte ausgelegt sind, und wo keine menschliche Kontrolle erfolgt.

4. Schnappen, aneignen, löschen lassen

Als die Fernsehserie Family Guy für einen Gag ein Aufnahme eines alten Computerspiels benötigte, schnappten sie sich einfach einen Clip von irgendeinem YouTube-Kanal. Kannst du dir schon denken, was dann passierte? Das bereits mehrere Jahre alte Originalvideo wurde entfernt, weil es als Verletzung der Urheberrechte der neuen Family Guy-Folge erkannt wurde.

Erkenntnis: Automatisierte Filter geben Großkonzernen die ganze Macht. User*innen müssen ihre Unschuld erst beweisen: Während die Löschung ihrer Videos automatisch erfolgt, müssen sie für die Wiederherstellung unrechtmäßig gelöschter Videos mühsam kämpfen.

5. Gedächtnislücken in Syrien

„Extremistische Inhalte“ entfernen: Das ist die Aufgabe einer anderen Art von Filter, den YouTube einsetzt, und den die Kommission gutheißt. Er versucht, verdächtige Inhalte wie Flaggen des IS in Videos zu erkennen. Was er jedoch auch noch fand und löschte: Zehntausende Videos, die Kriegsereignisse in Syrien dokumentierten und auf Kriegsverbrechen aufmerksam machten.

Erkenntnis: Filter verstehen nicht genug über den Kontext eines Videos, um entscheiden zu können, ob es gelöscht werden soll.

6. Verschwundene Parlamentsdebatte

Meine Kollegin Marietje Schaake stellte ein Video einer Debatte über Folter im Europaparlament auf YouTube. Es wurde entfernt – mit der Begründung, dass es gegen die Gemeinschaftsrichtlinien verstoße. Menschen in Europa wurde also der Zugang zu einer Diskussion ihrer gewählten Repräsentant*innen versperrt. Google schob diesen Vorfall später auf einen nicht richtig arbeitenden Spamfilter.

Erkenntnis: Es gibt keine Sicherheitsvorkehrungen, die leisten können, dass wenigstens die am offensichtlichsten von der Meinungsfreiheit abgedeckten Videos nicht in automatisierten Filtern hängen bleiben.

7. Wertvolle Stimmen an den Rand gedrängt

Manche Filter werden nicht dafür benützt, Inhalte gleich zu löschen. Sie sollen vielmehr einordnen: Ist ein Inhalt für Kinder geeignet? Ist er Werbekunden genehm, sodass mit davorgeschaltenen Werbeclips Geld verdient werden kann?

Unlängst sahen sich queere Menschen auf Youtube damit konfrontiert, dass sie mit ihren Videos kein Geld mehr verdienen konnten bzw. sie im „eingeschränkten Modus“ nicht mehr auffindbar waren – die Filter waren irgendwie zur Entscheidung gekommen, dass LGBT*-Themen besser kein breites Publikum erreichen sollten.

Erkenntnis: Stimmen, die besonderen Schutzes bedürfen, könnten besonders gefährdet sein, von Filtern unter den Teppich gekehrt zu werden.

8. Wenn Künstler ins Visier geraten

Der Musiker Miracle of Sound ist einer von vielen, deren Arbeit von Filtern entfernt wurde… in seinem eigenen Namen. Künstler*innen machen Verträge mit Labels, Labels machen widerum Verträge mit Firmen, die Filter füttern – und diese Filter können dann manchmal nicht unterscheiden, welche Accounts autorisiert sind, und welche nicht.

Erkenntnis: Legitime, voll lizenzierte Uploads bleiben auch regelmäßig in Filtern hängen.

9. Im Glashaus mit Filtern werfen

Ein Prototyp von Filtern sind automatisierte Systeme, die Urheberrechtsbeschwerden verschicken: So wie Filter suchen sie nach Urheberrechtsverletzungen, sie können bloß nicht direkt handeln. Die Millionen von Löschaufforderungen, die solche Systeme versenden, werden aber heute häufig auch am anderen Ende automatisiert verarbeitet. Daher treten ganz ähnliche Probleme auf.

Ein besonders peinlicher Fall: Warner Bros. forderte von Google, dass mehrere ihrer eigenen Promoseiten, sowie legitime Online-Verkaufsstellen ihrer Filme aus den Ergebnissen gestrichen werden müssten. Hoppla!

Erkenntnis: Nicht einmal jene, die solche Filter handhaben, haben sie unter Kontrolle.

* * *

Diese Beispiele sollten der EU-Kommission und anderen übereifrigen Politiker*innen eine Warnung sein:

Wir dürfen automatisierter Filtersoftware nicht die totale Kontrolle über Inhalte im Netz überlassen Tweet this!

Man kann nicht Gerichte, rechtsstaatliche Verfahren und gar jegliche menschliche Mitwirkung aus dem Prozess rauskürzen, ohne dass das verheerende Folgen für die Meinungsfreiheit hat – Folgen, die wir nicht akzeptieren dürfen.

Soweit dies durch das Gesetz möglich ist, hat der Schöpfer auf das Copyright und ähnliche oder Leistungsschutzrechte zu seinem Werk verzichtet.

Kommentare geschlossen.