Dieser Artikel erschien zuerst auf der Webseite der Gesellschaft für Freiheitsrechte e.V.
Gestern hat das Bundesjustizministerium seinen Referentenentwurf für die Umsetzung der EU-Urheberrechtsrichtlinie veröffentlicht. Bereits im Sommer stand ein erster Entwurf zur Diskussion, den ich mit der Gesellschaft für Freiheitsrechte e.V. in einer ausführlichen Stellungnahme analysiert habe. Der neue Vorschlag verschärft die Pflichten zum Einsatz von Uploadfiltern – zulasten der Grundrechte. Nur noch in wenigen Ausnahmefällen sollen Nutzer*innen ihre Uploads vor fälschlichen Sperrungen schützen können.
Dass der Vorschlag viele unserer Anregungen aufgenommen hat, die es erleichtern sollen, im Nachhinein gerichtlich gegen die Sperrung legaler Inhalte vorzugehen, ist nur ein schwacher Trost. Die Online-Kommunikation lebt von Schnelligkeit. Auch wenn ein Inhalt nur für einige Stunden oder Tage gesperrt ist, entsteht dadurch ein Schaden für die Meinungs- und Informationsfreiheit.
Vom neuen Vorschlag profitieren ausgerechnet die großen Plattformen wie YouTube oder Facebook, gegen die die Befürworter*innen von Artikel 17 einst ins Feld gezogen sind. Kleinere Unternehmen werden dagegen vor unüberwindbare technische Hürden gestellt und der Datenschutz bei der Nutzung sozialer Netzwerke wird weiter geschwächt.
So will Deutschland Artikel 17 umsetzen
Profitorientierte Plattformen sollen für Urheberrechtsverletzungen ihrer Nutzer*innen haften. Der Ausweg: Die Plattformen bemühen sich um Lizenzen und sperren mutmaßliche Urheberrechtsverletzungen auf Wunsch der Rechteinhaber*innen, die ihre Werke zur Sperrung melden. Ob Plattformen zum Einsatz von Uploadfiltern verpflichtet sein sollen, hängt grundsätzlich davon ab, ob der Einsatz dieser Technologien für sie verhältnismäßig ist. Bei Unternehmen mit einem Umsatz von weniger als einer Million Euro wird deshalb davon ausgegangen, dass sie zur automatischen Sperrung nicht verpflichtet sind.
Der erste Entwurf ließ offen, welche Pflichten für Plattformen über dieser Umsatzschwelle im Einzelfall zumutbar sind. Doch der nun veröffentlichte Referentenentwurf macht klar: Für sie wird nicht nur der Einsatz von Uploadfiltern unumgänglich, sie müssen sogar alle Uploads noch während des Uploadvorgangs auf etwaige Urheberrechtsverletzungen durchleuchten. Mildere Maßnahmen wie etwa eine stichprobenartige Überprüfung von Inhalten, die beispielsweise besonders oft aufgerufen werden, kommen demnach nicht mehr infrage.
§ 8 des Referentenentwurfs legt fest: Versucht jemand, einen Upload zu starten, der ein urheberrechtlich geschütztes Werk enthält, das zur Sperrung gemeldet wurde, muss die Plattform noch während des Uploadprozesses die Möglichkeit einräumen, diesen Upload als legal zu kennzeichnen („Pre-Flagging“). Das könnte zum Beispiel im Falle eines Zitates zutreffen oder weil der Inhalt unter einer freien Lizenz wie Creative Commons genutzt wird. Macht die Person, die den Inhalt hochlädt, von dieser Option Gebrauch, geht der Inhalt erstmal online, es sei denn, die Kennzeichnung ist „offensichtlich unzutreffend“ – auch das muss in der Praxis wohl wieder ein Filter überprüfen. Liegt aber zum Zeitpunkt des Uploads kein Sperrverlangen für den Inhalt vor, erhalten Nutzer*innen nicht die Möglichkeit zum Pre-Flagging.
Marktkonzentration und Datenschutzprobleme drohen
Diese Vorschrift stellt kleinere Plattformen vor unlösbare Probleme: Um ihre Pflichten nach § 8 zu erfüllen, müssen Plattformen noch während des Uploadvorgangs feststellen, ob dieser Upload geschützte Werke enthält, für die ein Sperrverlangen vorliegt. Wenn diese Prüfung auch nur eine Minute dauert, vergraulen die Plattformen ihre Nutzer*innen, die es gewöhnt sind, dass Inhalte nahezu in Echtzeit veröffentlicht werden. Beim Upload eines längeren YouTube-Videos sind Wartezeiten vielleicht akzeptabel. Bei der Veröffentlichung von Text, Bildern oder Kurzvideos auf sozialen Netzwerken wie Twitter sieht es jedoch anders aus – ganz zu schweigen von Livestream-Plattformen wie Twitch.
Wenn Unternehmen zum Einsatz von solchen Echtzeit-Uploadfiltern gezwungen sind, stärkt das die größten Internetkonzerne wie Google oder Facebook, die es sich leisten können, diese Überwachungstechnologie zu entwickeln. Kleinere Dienste können den gesetzlichen Anforderungen nicht genügen und müssen entweder ihren Dienst einstellen, oder die Uploadfilter der größeren Konkurrenz einkaufen. Das schwächt nicht nur den Wettbewerb, sondern ist auch ein Datenschutzproblem, das der Bundesdatenschutzbeauftragte Ulrich Kelber bereits letztes Jahr in einem Interview prophezeit hatte: „Dann laufen noch mehr Daten durch die Hände der großen amerikanischen Internetkonzerne, die dann noch mehr über alle Nutzer erfahren. Upload-Filter halten wir deshalb für falsch und gefährlich.“
Nutzungsrechte ausgehebelt
Für Nutzer*innen bietet der neue Vorschlag deutlich weniger Schutz als das bisher vorgesehene Pre-Flagging-Verfahren. Der Entwurf aus dem Sommer sah vor, dass Nutzer*innen immer beim Upload vom Pre-Flagging Gebrauch machen können, um ihre Inhalte vorsorglich als legal zu kennzeichnen. Das ist gerade für versierte Nutzer*innen von Plattformen wie YouTube äußerst wichtig, weil Uploadfilter immer wieder dieselben Arten von Fehlern begehen.
Wer regelmäßig Inhalte Dritter zitiert – zum Beispiel Videokanäle, die auf Filmkritiken oder Nachrichten spezialisiert sind – weiß genau, dass Filter auf diese legalen Zitate früher oder später anschlagen werden. Nach dem neuen Vorschlag haben Nutzer*innen die Möglichkeit zum Pre-Flagging nur dann, wenn zum Zeitpunkt des Uploads bereits ein Sperrverlangen vorliegt. Entschließen sich die Rechteinhaber*innen hingegen erst später, ihre Werke zur Sperrung zu melden, sieht der Referentenentwurf vor, dass die legalen Inhalte zunächst gesperrt werden und Nutzer*innen sich dann aktiv beschweren müssen, um sie wieder freischalten zu lassen. Das kann bis zu einer Woche dauern. Das ist nicht nur ein massiver Eingriff in die Meinungsfreiheit, sondern kann Medienunternehmen, die soziale Netzwerke zur Verbreitung und Monetarisierung nutzen, auch wirtschaftlich schädigen.
Das vorgeschlagene System ist außerdem sehr anfällig für falsche Copyright Claims. Das sind Situationen, in denen eine Person oder Firma Inhalte zur Sperrung meldet, an der sie gar keine Exklusivrechte hat. Das passiert besonders oft bei frei nachnutzbaren Werken, die entweder überhaupt nicht urheberrechtlich geschützt sind, oder unter einer freien Lizenz stehen. Problematisch kann es zum Beispiel bei Creative Commons-lizenzierten Werken werden, die viele verschiedene Nutzer*innen verwenden. Wenn eine*r dieser Nutzer*innen ein eigenes Video, das dieses Lied enthält, zur Sperrung meldet, um illegale Kopien des eigenen Videos zu bekämpfen, wird der Uploadfilter das frei nutzbare Lied fälschlicherweise dieser Person zuordnen. Das resultiert darin, dass alle anderen Videos, die legal dasselbe Lied verwenden, blockiert werden.
Wer regelmäßig freie Inhalte benutzt, kennt dieses Problem und hätte sich mit dem Pre-Flagging-Mechanismus vor solchen Fehlern schützen können. Nach dem neuen Entwurf muss man dagegen warten, bis die Sperrung bereits erfolgt ist, und kann die eigenen Inhalte erst im Nachhinein wieder freischalten lassen.
Dem falschen Rat gefolgt
Dass der Referentenentwurf die Marktmacht großer Plattformen stärkt und der kleineren Konkurrenz schadet, ist womöglich kein Zufall. Der neue Vorschlag zum Pre-Flagging entspricht genau den Vorstellungen, die Google in seiner Stellungnahme aus dem Sommer geäußert hatte. Dort heißt es:
„Das Gesetz könnte von den Online-Sharing-Diensten verlangen, die Nutzer unmittelbar über eine Sperrung zu informieren und den Upload sofort wieder freizuschalten, wenn die Nutzer Einwände erheben. Dieser Ansatz würde die Interessen der Nutzer ebenso schützen wie das Pre-Flagging, würde aber gleichzeitig zu weniger Aufwand führen, da er nur bei einer tatsächlichen Sperrung eingriffe und nicht unabhängig von einer erfolgenden Sperrung von allen Nutzern verlangen würde, alle ihre Uploads bereits beim Einstellen entsprechend zu kennzeichnen.“ (S. 19)
Noch im März hatte Justizministerin Lambrecht versprochen, den Bundesdatenschutzbeauftragten frühzeitig am Gesetzgebungsverfahren zu beteiligen. Der Referentenentwurf erweckt aber den Eindruck, dass dies entweder nicht geschehen ist oder seine Bedenken ignoriert wurden. Stattdessen hat das Ministerium auf genau die Unternehmen gehört, vor denen der Datenschutzbeauftragte gewarnt hatte. Um Datenschutz, Meinungsfreiheit und eine vielfältige Plattformlandschaft zu wahren, muss die Bundesregierung also unbedingt nochmal nachjustieren!
Bis 6. November steht der Referentenentwurf zur öffentlichen Diskussion. Hier steht, wie man sich beteiligen kann. Wir von der GFF werden den neuen Vorschlag wieder genau auf grundrechtliche Probleme prüfen und uns mit einer Stellungnahme an der Konsultation beteiligen. Wer unsere Arbeit unterstützen will, kann das hier tun.
Soweit dies durch das Gesetz möglich ist, hat der Schöpfer auf das Copyright und ähnliche oder Leistungsschutzrechte zu seinem Werk verzichtet.