Seit die Europäische Kommission ihren äußerst kontroversen Vorschlag vorgelegt hat, Internetplattformen zum Einsatz von Zensurmaschinen zu zwingen, wartet die Urheberrechtswelt gespannt auf die Position des Europäischen Parlaments. Heute hat Berichterstatter Axel Voss (CDU), der die Aufgabe hat, die Urheberrechtsreform durch das Parlament zu lotsen, endlich den Text veröffentlicht, hinter dem sich die Abgeordneten aus seiner Sicht versammeln sollen.

Es ist ein grünes Licht für Zensurmaschinen: Herr Voss hat den ursprünglich von seinem deutschen Parteikollegen, dem damaligen Digitalkommissar Günther Oettinger, verfassten Vorschlag nahezu vollständig beibehalten.

Damit weist er die Forderung von Abgeordneten aller Fraktionen zurück, die Zensurmaschinen zu stoppen. Er ignoriert eineinhalb Jahre intensiver akademischer und politischer Debatten, die unzählige eklatante Mängel des Vorschlags offenbart haben. Er verwirft die Arbeit mehrerer Ausschüsse des Parlaments, die sich gegen Upload-Filter ausgesprochen haben, sowie die Erkenntnisse seiner Vorgängerin und Fraktionskollegin MEP Comodini, die die Probleme vor gut einem Jahr richtig erkannt hatte. Er räumt die Bedenken hinsichtlich der Rechtmäßigkeit des Vorschlags beiseite, die mehrere nationale Regierungen im Rat geäußert hatten. Und er geht gegen den kürzlich veröffentlichten Koalitionsvertrag der neuen Bundesregierung – der ja auch seine eigene Partei angehören wird – in dem Filterpflichten als unverhältnismäßig zurückgewiesen werden.

Foto: © Europäische Union (mit Erlaubnis verwendet)

[Den Kompromissvorschlag von Axel Voss als englischsprachiges PDF lesen]

Ein „Kompromiss“ ist das nur dem Namen nach. Der Vorschlag von Herrn Voss enthält alle problematischen Elemente der ursprünglichen Idee der Zensurmaschinen und fügt noch weitere hinzu. Hier ist der Vorschlag im Detail:

1. Unerfüllbare Lizenzpflicht

Im Vorschlag heißt es: Alle Apps und Webseiten, auf denen Nutzer*innen Medien hochladen und veröffentlichen können, müssen urheberrechtliche Lizenzen für alle Inhalte besorgen. Es wird davon ausgegangen, dass diese Plattformen alle diese Uploads „öffentlich wiedergeben“, was bedeutet, dass Plattformen für Urheberrechtsverletzungen ihrer Nutzer*innen direkt verantwortlich sind, so als ob die Mitarbeiter*innen der Plattform selbst diese Werke hochgeladen hätten.

Diese bizarre Ergänzung zum Kommissionsvorschlag wäre in der Praxis oft nicht umsetzbar: Von wem genau sollen die Plattformen diese Lizenzverträge einholen? Während es in einigen Bereichen wie Musik oder Film Verwertungsgesellschaften geben kann, die professionelle Urheber*innen vertreten und somit möglicherweise eine Lizenz für die Werke vieler einzelner Autor*innen vergeben können, gibt es in anderen Sektoren überhaupt keine Verwertungsgesellschaften.

Man stelle sich zum Beispiel eine Hosting-Plattform für Software wie GitHub vor. Es gibt keine Verwertungsgesellschaft für Softwareentwickler*innen und bisher hat es auch niemand für notwendig erachtet, eine zu gründen. Wo also wird GitHub, das zweifellos Zugang zu der von Benutzern hochgeladenen (urheberrechtlich geschützten) Software bietet, ihre Urheberrechtslizenz erhalten? Sie können nicht mit jedem einzelnen Softwareentwickler Lizenzverhandlungen führen, nur weil jemand irgendwann seine Software ohne Erlaubnis auf GitHub hochladen könnte. Und ohne diese unumgängliche Lizenz sagt dieses Gesetz, ist die Plattform sofort haftbar, sobald jemand urheberrechtlich geschützte Werke hochlädt. Das ist ein sicherer Weg, die Plattformwirtschaft in Europa im Keim zu ersticken.

Und diese unerreichbaren Lizenzen decken nur den nichtkommerziellen Gebrauch ab: Wenn die Plattform eine Lizenz wie vorgeschrieben erwirbt, haften nichtkommerzielle Uploader nicht. Uploader, die aus gewerblichen Beweggründen handeln, wie zum Beispiel Unternehmen mit Social-Media-Accounts, können jedoch weiterhin von Rechteinhabern auch direkt verklagt werden.

2. Die Zensurmaschine ist gekommen, um zu bleiben

Im Vorschlag heißt es: Alle Plattformen, auf denen „erhebliche Mengen“ an von Nutzern hochgeladenen Inhalten gespeichert und öffentlich zugänglich sind, müssen verhindern, dass urheberrechtlich geschützte Inhalte, die von Rechteinhabern identifiziert wurden, überhaupt erst hochgeladen werden.

Es gibt nur zwei Möglichkeiten, dies zu tun: (a) eine Armee dressierter Affen anheuern, die jeden einzelnen Benutzerupload überprüfen und manuell mit den Informationen der Rechteinhaber abgleichen, oder (b) Upload-Filter installieren. In dem Artikel, der diese Verpflichtung enthält, werden die Inhaltefilter zwar nicht mehr explizit genannt. Sie werden jedoch in anderen Teilen des Textes erwähnt, wodurch deutlich wird, dass Voss Filter meint.

Was „signifikante Mengen“ sein sollen, bleibt undefiniert. Die Kommission wollte Zensurmaschinen für Plattformen mit „großen Mengen“ von Inhalten vorschreiben – der irreführenden Idee folgend, dass alle Unternehmen, die große Mengen an Inhalten hosten, auch die erheblichen Ressourcen für die Implementierung von Uploadfiltern aufwenden können. Dabei ignorierte die Kommission die große Vielfalt nicht-gewerblicher Plattformen wie Wikipedia, Nischenplattformen wie MuseScore (für Notenblätter) und aller Startup-Unternehmen, die zwar Millionen von Uploads hosten, aber trotzdem größte Mühe hätten, teure Filtertechnologie zu implementieren oder zu lizenzieren.

Warum Voss glaubt, das Problem sei damit gelöst, dass man das Wort „groß“ durch das potenziell noch umfassendere „signifikant“ ersetzt, bleibt völlig unklar.

3. Ein kleines Problem mit Grundrechten

Im Vorschlag heißt es: Die Filtermaßnahmen dürfen keine Verarbeitung personenbezogener Daten zur Folge haben, um die Privatsphäre der Nutzer zu schützen.

Hier findet sich der einzige Hinweis darauf, dass Herr Voss überhaupt auf die öffentliche Kritik eingegangen ist: Er anerkennt, dass es ein kleines Problem mit den Grundrechten gibt. Der Europäische Gerichtshof hat entschieden, dass die Verpflichtung, alle Uploads von Nutzern zu filtern, gegen die Grundrechte auf Privatsphäre, Meinungsfreiheit, Informationsfreiheit und unternehmerische Freiheit verstößt. Voss wählt eines dieser Grundrechte scheinbar willkürlich aus und fügt eine Bestimmung hinzu, die darauf abzielt, es zu schützen. So begrüßenswert die Intention auch ist, steht es jedoch in direktem Widerspruch zu dem, was als nächstes kommt:

Da Filter zwangsweise auch legale Inhalte löschen, die beispielsweise unter eine Urheberrechtsschranke wie das Zitatrecht fallen, sollen Benutzer*innen Zugriff auf einen Rechtsbehelfsmechanismushaben, um sich über das Sperren zu beschweren. Aber wie genau soll die Plattform dem Nutzer den Rechtsbehelf anbieten, wenn sie keine personenbezogenen Daten verarbeiten darf? Bloß zu protokollieren, welche Uploads einer Person dem Filter zum Opfer gefallen sind, erfordert bereits die Verarbeitung personenbezogener Daten. Wie kann sich ein*e Benutzer*in über eine unrechtmäßige Deaktivierung beschweren, wenn die Plattform keine Aufzeichnungen über den Filter führen darf?

Es wird noch besser. Rate mal, wer darüber entscheiden soll, wie auf Beschwerden über unrechtmäßige Takedowns reagiert wird? Genau jene Rechteinhaber, die darum gebeten haben, den – vielleicht fälchlicherweise – erkannten Inhalt zu blockieren. Die werden ganz sicher unparteiische Schiedsrichter sein…

Zumindest sollen die Nutzer vor Gericht gehen können, wenn der Rechtsbehelfsmechanismus nicht ausreicht. Dies kann sich jedoch in der Praxis schwierig gestalteten, da Urheberrechtsschranken keine Rechtsansprüche gegenüber den Rechteinhabern darstellen. Daher kann es sein, dass ein Gericht davon absieht eine Plattform anzuleiten, zuvor gelöschte Uploads wiederherzustellen, selbst wenn sie unter einer Urheberrechtsschranke legal wären.

Was die Nutzer brauchen, ist eine klare Rechtsvorschrift, dass die Ausnahmeregelungen des Urheberrechts Rechte der Nutzer darstellen – genau wie es die vorherige Urheberrechtsberichterstatterin Therese Comodini vorgeschlagen hatte.

4. Ganz spezielle allgemeine Überwachung

Im Vorschlag heißt es: Das Überprüfen aller Uploads darauf, ob sie mit urheberrechtlich geschützten Werken bestimmter Rechteinhaber identisch sind, stelle keine verbotene „allgemeine“ Überwachung dar, sondern sei „spezifisch“.

Das EU-Recht verbietet Gesetze, die Hosting-Provider dazu zwingen, „allgemeine Überwachung“ zu betreiben, wie zum Beispiel die kontinuierliche Überprüfung aller Dateien, die von Nutzer*innen hochgeladen werden. Voss postuliert in seinem Vorschlag einfach, dass Upload-Filter diese Regel nicht brechen würden und schreibt, dass nur die „abstrakte Überwachung“ verboten sein sollte – was dann wohl bedeuten muss, alle hochgeladenen Dateien auf gar nichts bestimmtes hin zu untersuchen…

Genau dieses Argument wurde vom Europäischen Gerichtshof bereits einmal zurückgewiesen: Die Europäische Kommission brachte es in der Vergangenheit schon zur Verteidigung von Upload-Filtern vor – und verlor (Randnr. 58 dieses französischsprachigen Beitrags der Kommission zum EuGH-Fall Scarlet vs. SABAM).

5. Einige wenige Ausnahmen

Im Vorschlag heißt es: Die Filterpflicht soll nicht gelten für Internetprovider, für Online-Marktplätze wie ebay, für Forschungsdatenbanken wie arXiv, wo Rechteinhaber hauptsächlich ihre eigenen Werke hochladen, oder für Cloud-Diensteanbieter wie Dropbox, wo die Uploads nicht öffentlich zugänglich sind.

In einem letzten Versuch, die massiven Kollateralschäden des Gesetzesvorschlags einzudämmen, schlägt Voss eine willkommene Klarstellung vor, welche Plattformen nicht von der Filterpflicht betroffen sind. Diese Ausnahme, die leider nicht rechtsverbindlich ist, da sie in einem Erwägungsgrund, und nicht direkt in einem Artikel enthalten ist, gilt jedoch nicht für die zuvor etablierte Lizenzpflicht.

Die aufgelisteten Plattformen müssten also immer noch Lizenzen von Rechteinhabern einholen, wenn sie Uploads öffentlich zugänglich machen. Aber wie sollen sich diese Plattformen vor Klagen von Rechteinhabern schützen, wenn sie keine Vorab-Lizenz für sämtliche erdenkbaren Inhalte erhalten, die hochgeladen werden könnten? Sie werden im Endeffekt ebenfalls auf Upload-Filter zurückgreifen müssen.

6. Kritische Teile bleiben unverändert

Große Teile der am meisten kritisierten Elemente des Kommissionsvorschlags wurden von Berichterstatter Voss völlig unverändert gelassen, wie der berüchtigte Erwägungsgrund 38 (2), in dem die Kommission das System der beschränkten Haftung der E-Commerce-Richtlinie falsch darstellt und behauptet, dass jede Plattform, die auch nur die hochgeladenen Werke automatisiert alphabetisch sortiert oder eine Suchfunktion anbietet, als „aktiv“ betrachtet werden sollte und daher für die Handlungen ihrer Benutzer*innen verantwortlich sein soll. Herr Voss nimmt hier lediglich kosmetische Änderungen vor.

Es ist nicht zu spät, die Zensurmaschinen zu stoppen!

Glücklicherweise kann Axel Voss die Position des Parlaments nicht allein entscheiden. Er wird eine Mehrheit im Rechtsausschuss (JURI) benötigen, der Ende März oder April abstimmen wird. Zwei andere Ausschüsse haben sich bereits entschieden gegen Filterverpflichtungen ausgesprochen, und mehrere JURI-Mitglieder haben Änderungsanträge eingereicht, um den Artikel zu streichen oder erheblich zu verbessern.

Jetzt ist es an der Zeit, deine Abgeordneten aufzurufen, den Vorschlag von Herrn Voss abzulehnen! Du kannst Dienste wie SaveTheMeme.net von Bits of Freedom, einer NGO für digitale Bürger*innenrechte, oder ChangeCopyright.org von Mozilla verwenden, um die Mitglieder des Rechtsausschusses kostenlos anzurufen. Oder schreib die Abgeordneten aus deinem Land per E-Mail an.

Aber am wichtigsten: Sag’s weiter! Bitten lokale Medien, über dieses Gesetzesvorhaben zu berichten. Das Internet, wie wir es kennen, steht auf dem Spiel.

Soweit dies durch das Gesetz möglich ist, hat der Schöpfer auf das Copyright und ähnliche oder Leistungsschutzrechte zu seinem Werk verzichtet.

Kommentare geschlossen.