Der öffentliche Raum online bietet Platz für öffentliche Debatten, die notwendig sind, die freiheitliche Demokratie zu stärken. Gleichzeitig gibt er denen einen Platz, die ihn als ein Paradies zur Anwerbung und Propaganda für terroristische Vereinigungen missbrauchen und sich an den Armen und Schwachen unserer Gesellschaft vergreifen. Doch der Terrorismus kann nicht mit einer Verordnung zur Löschung illegaler Inhalte online aufgehalten werden. Sie kann höchstens ein Schritt zu einer umfassenden Strategie sein. Darüber müssen wir uns im Klaren sein, bevor wir eine Verordnung verabschieden, die einige unserer Grundfreiheiten und damit Grundzüge unserer freiheitlichen Demokratie opfert, nur um einen von vielen Risikofaktoren der Radikalisierung zu eliminieren.

Für den Ausschuss für Binnenmarkt und Verbraucherschutz habe ich als Berichterstatterin einen Berichtsentwurf zur Verhinderung der Verbreitung Terroristischer Online-Inhalte verfasst. Ich hoffe sehr, dass Dan Dalton, der für das Parlament die Verhandlungen mit dem Rat leitet, ihn in seinen Vorschlag mit einbeziehen wird. Dabei ist mein Hauptziel, Grundrechte und Freiheiten zu schützen, indem wir die Verordnung auf das wesentliche konzentrieren. Das ist umso wichtiger, da gerade erst die Terrorismus-Richtlinie in Kraft getreten ist. Bevor wir neue pauschale Gesetze erlassen, sollten die existierenden Regelungen evaluiert und auf diesen Erkenntnissen aufgebaut werden.

Der Vorschlag der Kommission ist ein Weiterer unglücklicher Schritt in der Tradition der Vorschläge zur Urheberrechtreform, in der alle Plattformen aufs Korn genommen werden, die hochgeladene Inhalte hosten. Das reicht von privaten Blogs mit einer Kommentarfunktion über Unternehmenswebseiten bis hin zu riesigen sozialen Netzwerken, ganz egal ob die Kommunikation privat oder öffentlich stattfindet. Gleichzeitig hat die Folgenabschätzung der Kommission ergeben, dass auf weniger als 1% der hier einbezogenen Hosting-Dienstleister jemals terroristische Inhalte hochgeladen wurden. Es steht außer Frage, dass die vorgeschlagenen pauschalen Verpflichtungen für die zu mehr als 99% unbetroffenen Plattformen nicht nur unverhältnismäßig sind, sondern darüber hinaus auch eine Bedrohung der Grundrechte der Informations- und Meinungsfreiheit darstellen.

Der Vorschlag sieht neue Verpflichtungen für Plattformen vor. Hier will ich drei der kontroversesten im Detail angehen:

1. Lösch-Anordnungen: Der Speedy Gonzales-Ansatz für Takedown-Anordnungen


An sich ist die erste Verpflichtung sinnvoll: Plattformbetreiber müssen für nationale Behörden erreichbar sein, um zügig auf Lösch-Anordnungen für illegale Inhalte zu reagieren. Allerdings hätte die Kommission gerne, dass solche Inhalte innerhalb einer Stunde entfernt werden, ohne wenn und aber. Dieser Zeitraum ist unverhältnismäßig kurz. Ein längerer Zeitraum würde den Plattformbetreibern erlauben, grundliegende Plausibilitätsprüfungen durchzuführen. Ist der beanstandete Upload wirklich illegaler terroristischer Inhalt, oder nur Teil von journalistischer Berichterstattung? Gehört die Person, die Lösch-Anordnung abgeschickt hat, wirklich einem Gericht oder einer Behörde eines Mitgliedsstaates an, die solche Anordnungen erlassen darf?

Man kann von Einzelpersonen oder kleinen Organisationen nicht erwarten, 24/7 zur Verfügung zu stehen, um innerhalb einer Stunde auf eine Lösch-Anordnung zu reagieren, denn über 99% der Plattformen werden nie von terroristischer Propaganda betroffen sein. Webseiten, die von Einzelpersonen betrieben werden, kleine- und mittelständische Unternehmen sowie Plattformen wie Cloud-Anbieter, die Uploads nicht der Öffentlichkeit zur Verfügung stellen, sollten von diesem Vorschlag vollkommen ausgeschlossen werden. Es setzt die vollkommen falschen Anreize, wenn wir von Cloud-Anbietern verlangen, dass sie von Nutzern hochgeladene terroristische Inhalte löschen. Denn gleichzeitig ist es unser Ziel, Cloud-Anbieter zu mehr Verschlüsselung anzuhalten, damit ihre Dienste sicherer werden. Doch wenn ein Cloud-Anbieter wie von ihm verlangt Ende-zu-Ende-Verschlüsselung anbietet, sollten er überhaupt keinen Einblick in die hochgeladenen privaten Inhalten haben. Cloud-Anbieter können nicht verpflichtet werden, Inhalte zu überwachen, zu denen sie keinen Zugriff haben. Stattdessen sollten nur Plattformen, die Inhalte der Öffentlichkeit verfügbar machen dazu verpflichtet werden, auf Lösch-Anordnungen so schnell zu reagieren, wie es entsprechend ihrer Größe und Resourcen zumutbar ist. Es ist aber zumutbar, dass Plattformbetreiber für Justizbehörden unmittelbar erreichbar sind, auch wenn sie nie eine Lösch-Anordnung erhalten.

Nicht zumutbar ist, dass die Definition der Kommission für terroristische Inhalte so vage ist, dass sie noch nicht einmal sicherstellt, dass zu löschende Inhalte tatsächlich illegalesein müssen. Einerseits scheint die Definition klassisches Propagandamaterial von terroristischen Organisationen wie Daesh zu umfassen, einschließlich Bauanleitungen für Waffen. Andererseits ist sie aber so vage, dass sogar legale Inhalte, wie wissenschaftliche oder journalistische Artikel darunter fallen würden. Vor erst zwei Jahren hat die EU eine umfassende, einheitliche Definition für terroristische Vergehen geschaffen, die in der gesamten EU illegal sind. Es ist gänzlich unverständlich, warum die Kommission sich nun nicht auf diese etablierte Definition stützt. Mit Recht haben unzählige Menschenrechtsorganisationen diesen Fehlgriff beklagt, und insbesondere auf den Verlust an Informations- und Meinungsfreiheit aufmerksam gemacht, wenn legale Darstellungen von illegalen terroristischen Aktivitäten zensiert würden. Das ist für mich nicht akzeptabel und ich werde die vor zwei Jahren beschlossene Definition wieder einführen, einschließlich der wichtigen Einschränkung, dass illegale terroristische Vergehen einen Vorsatz voraussetzen.

2. Verweise: Die Umkehrung der Rechtsstaatlichkeit


Die Kommission hätte gerne, dass zusätzlich zu den zuständigen nationalen Behörden auch Europol als terroristisch eingestufte Inhalte mithilfe sogenannter „Verweise“ an Plattformen meldet. Soweit so gut. Allerdings soll Europol nicht die Einstufung der Illegalität der Inhalte vornehmen, die sie für verdächtig halten. Stattdessen soll Europol die Plattformen nur auf Inhalte hinweisen, die vielleicht legal oder auch illegal – zumindest aber verdächtig sind. Über die mangelhafte Definition für was illegal ist hinaus, wird von den Plattformen erwartet, nach der Benachrichtigung die Illegalität nicht in Übereinstimmung mit den Gesetzen feststellen, sondern im Bezug auf ihre Nutzungsbedingungen. In den Bedingungen liegt die Schwelle jedoch meist deutlich niedriger als in Gesetzen. Wenn wir beispielsweise an Facebooks „community rules“ denken, fallen uns als erstes kontroverse Löschungen von Inhalten ein, die Facebook für unangemessen hält. Etwa Darstellungen von weiblicher Nacktheit. Öffentliche Einrichtungen dazu zu verpflichten, die Regeln privater Plattformen umzusetzen, ist eine bizarre Umkehrung des Rechtsstaatsprinzips. Letzten Endes ist der Unterschied wohl gering, ob selbstgesetzte Regeln oder geltendes Gesetz angewendet werden müsste, da eine Plattform bei einer Lösch-Anordnung nicht erst abwägen wird – ein Verweis durch Europol oder von einer staatlichen Behörde wird de-facto einer Anordnung gleich kommen. Wie im Fall potentieller Urheberrechsverstöße löschen Plattformen regelmäßig lieber zu viel, als sich der Gefahr einer Haftung auszusetzen. Nur wenn Plattformen glaubhaft versichern können, dass sie keine Kenntnis von illegalen Inhalten haben, können sie die Haftung umgehen. Europol hat bereits nach der Europol-Verordnung ähnliche Möglichkeiten, Plattformen bei der Umsetzung ihrer privaten Regeln zu unterstützen. Aber die Ausweitung auf Ämter und Strafverfolgungsbehörden in den Mitgliedsstaaten bedeutet in der
Praxis, dass diese in die Lage versetzt werden, die Löschung von legalen Inhalten anhand willkürlicher Maßstäbe eines Privatunternehmens anzuordnen.

Meine Haltung ist klar: Wenn eine Behörde verdächtige Inhalte findet, muss sie die Illegalität anhand der Gesetzeslage feststellen, nicht private Plattformen. Alles andere wäre Willkür, sabotiert die Rechtssicherheit und die Rechtsstaatlichkeit. Anstatt der Verdachstfälle weiterzureichen, müssen Behörden abschließende Bewertungen an die Plattformen weiterreichen. Darüber hinaus ist es absolut angemessen von dem einen Prozent der Plattformen, die tatsächlich von illegalen terroristischen Inhalten betroffen sind, eine höhere Sorgfaltspflicht zu verlangen. Umgekehrt ist es aber nicht angemessen, dass alle Plattformen private Regeln zu terroristischen Inhalten aufstellen sollen, die auf Befehl von Behörden ausgeführt werden sollen. Diese Situation würde eine gefährliche Verzerrung der Zuständigkeiten für die Strafverfolgung schaffen, vor der auch die Vereinten Nationen und der Europarat gewarnt haben.

3. „Proaktive Mittel“: auch bekannt als Uploadfilter


Es hat nicht lange gedauert, bis die Europäische Kommission sich in der Abwärtsspirale der Einführung von Uploadfiltern in der Urheberrechtsreform befand. Kritiker des berüchtigten Artikel13 der Urheberrechtsreform prophezeien seit langem, dass die Akzeptanz der Filter im einen Zusammenhang sofort zu Rufen nach der Ausweitung zur Kontrolle des gesamten Internet mit sich bringen würden. Sie hatten Recht: der Kommissionsvorschlag verlangt nach „proaktiven Mitteln“ zur Verhinderung von Uploads mit terroristischem Inhalt. Die Nutzung von Uploadfiltern wird als freiwillig dargestellt – nur ist sie das nicht – denn Behörden können Plattformen auch dazu verpflichten, Filter einzusetzen, wenn sie freiwillige Mittel für nicht effektiv genug halten. Darüber hinaus verlangt die Kommission nicht nur, dass die Filter hochgeladene Inhalte mit einer Datenbank von bekannten terroristischen Inhalten abgleichen (was an sich schon problematisch genug ist, da der Kontext des Uploads ignoriert wird und somit zur Löschung legaler, journalistischer oder akademischer Inhalte führen kann), sondern dass Plattformen sogenanntes maschinelles Lernen einsetzen, um neue und bislang unbekannte terroristische Inhalte zu erkennen. Das kann nur schiefgehen: Sogar ein KI-basierter Filter mit einer Präzision nahe der 99% wird mehr legale als illegale Inhalte löschen. Einfach weil terroristische Inhalte im Vergleich zur gesamten Uploadzahl sehr selten sind.

Erfahrungen mit bereits bestehenden freiwilligen Filtern auf großen Plattformen zeigen wieder und wieder, dass sie fehlerhaft sind, diskriminieren und zum Overblocking neigen – also dazu, eher mehr und damit auch mehr zu Unrecht zu blocken. Ähnlich wie die Kommission werden sie nicht zwischen legalen und illegalen Inhalten unterscheiden können. Ich bin gegen den verpflichtenden Einsatz von Uploadfiltern und werde darin vom EU-Recht bekräftigt, das es Mitgliedsstaaten verbietet, Plattformen zur generellen Überwachung von Inhalten zu verpflichten.
In den kommenden Verhandlungen werde ich mich dafür einsetzen, diese „proaktiven Mittel“ aus der Verordnung zu streichen. Stattdessen müssen starke Sicherheitsmechanismen her, die eine bessere Transparenz und Kontrolle ermöglichen, wenn Plattformen bereits auf die fehlerbehafteten Filter setzen, um die fehlerhafte Löschung und Blockade legaler Inhalte zu verhindern. Die Sicherheitsmechanismen müssen in erster Linie aus menschlicher Kontrolle bestehen, sowie aus dem Zugang zu Beschwerdemechanismen für Nutzer*innen und aus mehr Transparenz der Plattformen beim Einsatz freiwilliger Maßnahmen. Zugleich müssen die unwirksamen und übertriebenen Strafen für Betreiber abgeschafft werden, wenn diese einzelne illegale Inhalte übersehen haben. Wenn die Schwelle zur Haftung für fehlerhafte Löschungen zu niedrig liegen, werden im Ergebnis zu viele legale Inhalte blockiert und gelöscht. Stattdessen sollten nur solche Fälle bestraft werden, wo systematische und andauernde Verstöße gegen die Verpflichtungen von Plattformen bestehen. Zum Beispiel wenn eine Plattform regelmäßig nicht innerhalb angemessener Zeit auf gerichtliche Anordnungen reagieren.

Legitime Probleme bei der Transparenz und bei Strafverfolgung konsequent angehen

Über die oben beschriebenen Probleme hinaus gibt es einige Paragraphen, die – mit kleinen Änderungen – sinnvolle Fortschritte bei der Bekämpfung von terroristischen Inhalten online bringen. Insbesondere im Bereich der Transparenz und Nutzerfreundlichkeit.

Wenn heute eine Plattform (potentiell) illegale Inhalte auf der Grundlage ihrer Nutzungsbedingungen löscht statt auf gesetzlicher Grundlage, ist der Upload in der Regel für immer verloren. Und mit ihm wichtige Informationen zur strafrechtlichen Verfolgung des Nutzers, der ihn hochgeladen hat. Es stimmt, dass Plattformen entfernte Uploads für eine angemessene Zeit speichern sollten, um den Behörden die Strafverfolgung zu ermöglichen. Gleichzeitig sollte diese Speicherung Nutzern ermöglichen, falsche Entscheidungen anzufechten und eine Wiederherstellung zu verlangen. In diesem Sinne würde die Entfernung illegaler terroristischer Inhalten nach geltendem Recht zur Stärkung unserer Sicherheit und unserer Grundrechte führen. Schließlich ist es wichtiger, Verdächtige dingfest zu machen, die online Hinweise gegeben haben, einen Anschlag zu planen, anstatt nur dafür zu sorgen, dass ihre Inhalte nicht mehr abrufbar sind. Das Ziel muss sein, Täter zur Rechenschaft ziehen zu können. Ich bin auch mit dem Ansatz einverstanden, Plattformen zu mehr Transparenz dabei anzuhalten, wie sie gegen terroristische Inhalte vorgehen. Das beinhaltet eine Information an Nutzer*innen, deren Inhalte gelöscht oder geblockt wurden, mit Hinweisen dazu, wie sie sich dagegen zur Wehr setzen und ihren Inhalt wiederherstellen lassen können.

Aufgrund dieser positiven Aspekte habe ich mich dazu entschieden, den Verordnungsvorschlag nicht vollständig zurückzuweisen, denn er enthält einige Elemente, die legitime Bedenken angehen. Allerdings ist vor dem Ende meiner Amtszeit nicht mehr viel Zeit und wir dürfen unter keinen Umständen den Kommissionsvorschlag akzeptieren, wenn nicht erhebliche Verbesserungen gemacht und unsere Grundrechte im Namen der Terrorismusbekämpfung eklatant eingeschränkt werden. Sollte keine breiter Konsens zu diesem Vorschlag erzielt werden können, wäre es besser, das Gesetzesvorhaben dem nächsten Europäischen Parlament zur genaueren Inspektion zu überlassen.

Zeitplan und Schattenberichterstatter

Die anderen Fraktionen haben ihre Änderungsanträge zu meinem Berichtsentwurf eingereicht. Die meisten stimmen zu, dass der Kommissionsvorschlag zu weit geht. In den Verhandlungen mit den Schattenberichterstattern werden wir jetzt nach einem Kompromiss suchen. Aber ich habe bereits deutlich klargemacht, dass verpflichtende Uploadfilter für mich auf keinen Fall akzeptabel sein werden. Die nächste öffentliche Aussprache zu den Änderungsanträgen wird in der Ausschusssitzung am 20. Februar stattfinden.

Meine Verhandlungspartner*innen in den anderen Fraktionen sind Eva Maydell (EVP), Lucy Anderson (S&D), Jasenko Selimović (ALDE), Jiří Maštálka (GUE) und Daniel Dalton (EKR), der auch der Berichterstatter im federführenden LIBE-Ausschuss ist. Seinen Berichtsentwurf findet ihr hier, einen Überblick des gesamten Vorhabens hier.

Soweit dies durch das Gesetz möglich ist, hat der Schöpfer auf das Copyright und ähnliche oder Leistungsschutzrechte zu seinem Werk verzichtet.

Kommentare geschlossen.