Wie kann der Nutzungsvorbehalt konkret aussehen?
Wie kann ein entsprechender Hinweis konkret erfolgen? Experten von der Gesellschaft für Freiheitsrechte (GFF) bis zum IT-Verband Bitkom sind sich einig, dass dafür am besten ein Eintrag in der Datei robots.txt erfolgt, die Anweisungen für Webcrawler etwa von Suchmaschinen enthält. Laut der Gesetzesbegründung kommen theoretisch für den Vorbehalt auch das Impressum oder die Allgemeinen Geschäftsbedingungen (AGB) infrage, solange er dort ebenfalls maschinenlesbar ist und automatisierte Abläufe weiter durchgeführt werden können.
Viele Bots müssen draußen bleiben
"Der Nutzungsvorbehalt sollte auf jeden Fall möglichst unkompliziert erklärt werden können", sagte Robin Schmitt, Rechtsanwalt bei der Kanzlei CMS in Stuttgart, Golem.de. "Wichtig ist, dass der Hinweis von der Software selbst wahrgenommen werden kann und es nicht erforderlich ist, dass zunächst händisch alle in Frage kommenden Webseiten nach möglichen Nutzungsvorbehalten abgesucht werden müssen."
Im Streitfall komme es darauf an, das (Nicht-)Vorhandensein der Erklärung zu einem gewissen Zeitpunkt auch zu beweisen. CMS habe aber noch keine Erkenntnisse, ob das bereits vor Gericht verhandelt worden sei und welche Maßstäbe dort angelegt werden könnten.
Nach Ansicht des Suchmaschinenexperten Kai Spriestersbach von Search One erlauben die urheberrechtlichen Klauseln für Text- und Data-Mining, dass eine KI sogar Texte von einer Webseite übernehmen und in veränderter Fassung an anderer Stelle, etwa via ChatGTP, wieder veröffentlichen darf. Die so maschinell generierten Passagen unterlägen selbst nicht dem Urheberrecht, sagt der Experte. Um Algorithmentraining und Text- oder Bildsynthesen zu verhindern, empfahl Spriestersbach so schon voriges Jahr, alle Crawler jenseits der "guten" Varianten Google- und Bingbot pauschal mit einer entsprechenden Disallow-Anweisung auszusperren.
"Wer zukünftig noch in den Ergebnissen der Suchmaschinen auftauchen will, wird wohl oder übel Google und Microsoft den Bot-Zugriff und damit auch das Data-Mining erlauben", erläutert Spriestersbach dazu auf Nachfrage. Solange die großen KI-Modelle von anderen Unternehmen wie OpenAI trainiert würden, möge das ausreichend sein. Mittelfristig brauche es aber wohl eine neue Lösung. Denn einen eigenen User-Agent zur Ansprache von Crawlern, die Daten schürfen wollen, gibt es bislang nicht.
Crawling-Übereinkunft wackelt
Seit der Einführung des robots.txt-Standards 1994 existiere ein impliziter Vertrag zwischen Anbietern von Suchmaschinen und Webseitenbetreibern, erklärt Spriestersbach weiter. "Wir erlauben das Crawling der Inhalte, damit die Suchmaschinen bessere Ergebnisse erhalten."
Sie dürften also trotz Ressourcenverbrauchs auszugsweise Inhalte verwenden, um Nutzern Suchtreffer anzeigen zu können. Ressourcenverbrauch bedeutet hier, dass jeder Crawler die Ressourcen einer Webseite beansprucht, weil er Server- und Bandbreitenkosten verursacht. Deswegen legen Admins oft fest, dass Bots von weniger wichtigen Suchmaschinen draußen bleiben sollen.
Es sei nicht absehbar, dass zusätzlich eine Möglichkeit zur Unterscheidung des Verwendungszwecks des Crawlings auf technischer Ebene eingeführt werde, sagt Spriestersbach. Die bisherige Abmachung drohe daher "gerade zu kippen".
In der neuen Bing-Version mit ChatGPT werden dem Marketingexperten zufolge für viele Ergebnisse zwar zumindest die jeweiligen Quellen angegeben.
In Googles Bard-Demos sei davon jedoch noch nichts zu sehen gewesen. Seine Hoffnung sei, "dass auch weiterhin reguläre Suchtreffer verwendet werden, die dann in der Antwort als Referenz angegeben werden". Schon allein, weil die derzeitigen großen Sprachmodelle sowie die zugehörigen Chatbots nicht in der Lage seien, zuverlässig korrekte Fakten zu liefern.
Google wollte sich gegenüber Golem.de zu der Debatte über eine Erweiterung von robots.txt oder eine andere Form des maschinenlesbaren Opt-outs nicht äußern. "Bard ist ein experimenteller KI-Dienst, der sich von der Google-Suche unterscheidet", erklärte ein Sprecher nur. "Wir haben ihn gerade für vertrauenswürdige Tester geöffnet." Microsoft reagierte nicht auf eine entsprechende Anfrage.
Kommt ACAP mit DRM zurück?
Der auf Immaterialgüterrechte spezialisierte Berliner Anwalt Till Kreutzer zeigte sich skeptisch, ob robots.txt eine angemessene Lösung ist. Dieser Ansatz biete zwar prinzipiell graduelle Abstufungsmöglichkeiten und gehe über einen "Ein-/Aus-Schalter" hinaus.
Hilfreicher sei es aber aus seiner Sicht, wenn zentrale Akteure wie das World Wide Web Consortium (W3C) einen eigenen Standard für HTML hervorbrächten, mit dem man Crawler für Text- und Data-Mining an eigenen Angeboten gezielt vorbeischleusen könne.
Vor Jahren machte die Verlagsbranche mit dem Automated Content Access Protocol (ACAP) schon einmal einen Vorschlag, um feinstufig festlegen zu können, was Crawler erfassen, auslesen und eventuell dafür bezahlen müssen. Dabei handelte es sich aber um eine Form von Digital Rights Management (DRM), das Webseitenbetreiber in eine starke Kontrollposition gebracht hätte. Google & Co. lehnten das Protokoll daher ab.
Interessenvertretungen wie der Bundesverband professioneller Bildanbieter (BVPA) drängen längst auf rechtliche Klarstellungen, um Text- und Data-Mining auf nichtkommerzielle Forschung zu begrenzen. Eine allgemeine Opt-out-Klausel für Kreative hält auch der Verband European Visual Artists für unzureichend.
Künstler müssten gezielt in solche Nutzungen einwilligen und entsprechend entlohnt werden. Kreutzer hält dagegen: "Mit Opt-in kann es nicht funktionieren." Kein Suchmaschinenbetreiber sei in der Lage, für jeden einzelnen Inhalt auf einer Webseite die Rechte zu klären. Das "automatisierte Urheberrecht" sei prinzipiell sinnvoll.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
ChatGPT, Stable Diffusion, Dall-E: Die Crux mit dem Opt-out aus Text- und Data-Mining |
- 1
- 2
Das Feld in den EXIF Daten bietet sich doch dafür an. Es ist für Urheberrechts...
Den Cache bemängelt doch keiner, abgesehen von der Industrie. Wenn du nun aber Teile des...
Ich finde es ja auch immer amüsant, dass man neuen Dingen ganz plötzlich explizit...
Kommentieren