Ein analoger Kampf gegen Digital-Piraten

Es ist immer wieder schön, wenn sich ein Mitglied der Bundesregierung äußert und dabei absolute Unkenntnis der Materie zeigt. Neuestes Beispiel: Kulturstaatsminister (zum Bundesminister hat es nicht gereicht) Bernd Neumann, CDU.

Er kämpft im Auftrag Sinne der Verleger und Urheber für die Bewahrung der Rechte im Netz. Was im Prinzip nicht verwerflich ist, weil man nun einmal nicht einfach nutzen darf, was anderen gehört. Und seien es Texte, Musikstücke oder Bilder.

Neumann allerdings hat sich nicht mit Ruhm bekleckert, wie man einer Meldung der dpa entnehmen kann, die die Nordsee-Zeitung am Samstag veröffentlicht hat (natürlich mit dem verlegerfreundlichen Titel „Kampfansage an Internet-Piraten“). Neumann stellt in dem Text eine Stufensystem von Warnhinweisen in Aussicht, das bei illegalen Downloads greifen soll.

Da heißt es:

Netzpiraten sollen zunächst einmal per Mail persönlich verwarnt werden, erst bei einer Wiederholung wären Abmahnungen und Anzeigen fällig.

Nun ja – das ist eine tolle Idee, die der Pädagoge da hatte. Das funktioniert auch perfekt, und zwar bei Schülern. Und bei jemanden, dessen Adresse bekannt ist. Analog eben. Aber nicht im Netz.

Denn woher zum Beispiel soll die verwarnende Stelle – und welche ist das überhaupt? – die E-Mail-Adresse haben? Will man uns zwingen, die unsinnige DE-Mail zu benutzen? Das käme einem Bundesmailregister gleich und ist verfassungs- und datenschutzrechtlich bedenklich (vor allem, wenn man schon gegen Google Streetview meckert). Wie soll die Verwarnstelle rechtsverbindliche Verwarnungen ausstellen? Und wie soll der Absender überhaupt identifiziert werden? Das spricht alles für Vorratsdatenspeicherung aus wirtschaftlichen Gründen. Faktisch soll uns mit Hilfe der Medien also die zwingende Notwendigkeit vorgeführt werden. Was mich übrigens genauso ärgert, ist die Tatsache, das dieser Krams natürlich wieder einmal unüberlegt gedruckt wird und Fragen überflüssig sind. Technisches Verständnis ist auch in einer Redaktion manchmal vonnöten.

Doch der Text geht noch weiter. Soll will Neumann, kraft Amt auch für die Medienpolitik zuständig, das Leistungsschutzrecht für Verlage durchsetzen. Das ist eine Forderung, mit der die verschnarchten Print-Patriarchen versuchen, ihre verpassen Geschäftsmodelle im Netz wieder in bare Münze zu verwandeln. Dabei waren es die Leute, die jahrelang ohne Strategie gefahren sind und somit dem Netz Vorschub geleistet haben.

dpa (und damit die Nordsee-Zeitung sowie alle anderen, die den Text veröffentlicht haben) schreibt dazu:

Die Suchmaschinen (…wie Google…) verdienen mit der ungenehmigten Sammlung von Nachrichten und ihrer Verwertung auf eigenen Plattformen sehr viel Geld. Die Verlägerverbände fordern, dass der Zugriff auf ihre Internet-Auftritte eigens honoriert werden.

Gemeint ist Google News. Das Problem liegt dabei aber nicht auf Seiten der Suchmaschine, sondern bei den Verlagen. Nicht nur, dass sie wie erwähnt die Entwicklung verpennt haben, sie wollen ohne Arbeit beteiligt werden. Vor einiger Zeit forderten sie übrigens auch Beteiligung bei den Gewinnen von Facebook – mit der gleichen Begründung.

Dabei zeigt sich gerade hier die gespaltene Zunge der Verlegerverbände. Einmal will man kassieren, da unerlaubt gesammelt würde (übrigens auch die hundertfach im Netz zu findenden dpa-Einheitsbreitexte). Andererseits erlauben sie den Robots der Suchmaschinen den Zugriff auf ihre Webseiten. Dabei kann eine klitzekleine Datei im Stammverzeichnis des Servers effektiv helfen. Die robots.txt. Damit kann man eine Suchmaschine ausschließen und ihr verbieten, die Inhalte zu lesen.

Hier wäre das Beispielskript:

# robots.txt für meineseite.com

# Diese Webcrawler schließe ich aus

User-agent: Sidewinder

Disallow: /

User-agent: Microsoft.URL.Control

Disallow: /

Das aber, so die Logik der Verlagsbosse, würde die Webseite ja aus den Suchmaschinen ganz verschwinden lassen und Klicks kosten.

Neumann will also lieber ein Unternehmen verdonnern, einem anderen Unternehmen dafür Geld zu bezahlen, um etwas zu tun, dass dieses mangels robots.txt erlaubt hat. Das ist logisch, oder? Gleichzeitig sind die Verleger übrigens ganz eifrig dabei, freien Autoren alle Rechte an den Texten abzunehmen, um sie selbst zu verkaufen. Keiner jedenfalls zahlt extra für die Online-Nutzung, und bei einer Leistungsschutzabgabe würde kein Cent an den echten Urheber fließen, den Autoren.

Aber das ist Bernd Neumann ja auch nicht so wichtig.

# robots.txt für meineseite.com
# Diese Webcrawler schließe ich aus
User-agent: Sidewinder
Disallow: /

User-agent: Microsoft.URL.Control
Disallow: /


Sei der Erste dem dieser Beitrag gefällt.

Einen Kommentar hinterlassen

Deine Email-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * gekennzeichnet.

*

Die kannst folgende HTML Tags und Attribute verwenden: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <pre> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>