Cloudflare-Chef: Wenn Bots die Menschen als Webseiten-Besucher ablösen
Cloudflare-Gründer Matthew Prince hat am Wochenende zwei Auftritte auf der Technologiekonferenz South by Southwest in Austin, Texas, genutzt, und seine Einschätzung skizziert(öffnet im neuen Fenster) , die vielen Webseiten-Betreibern nicht gefallen dürfte: Das bisherige Geschäftsmodell weiter Teile des Internets stehe unter erheblichem Druck – ausgelöst durch KI-Dienste, die Inhalte zusammenfassten, statt Nutzer weiterzuleiten.
Das Werbemodell, das das Internet seit 25 Jahren finanziere, funktioniere nur so lange, wie am Ende ein Mensch auf einen Link klicke.
Was ist passiert? – KI-Crawler verdrängen menschliche Besucher
Das Kernproblem lässt sich rechnerisch gut beschreiben. Vor zehn Jahren brachte Google pro gecrawlter Seite noch deutlich mehr Besuche zurück. Heute muss eine Webseite laut Prince fünfzigmal so viele Inhalte bereitstellen, um über die Suchmaschine auf denselben Besucherstrom zu kommen wie früher. Bei ChatGPT liege dieser Faktor bei 3.500, bei Perplexity sogar bei 65.000.
Der Mechanismus dahinter ist bekannt: KI-Systeme wie Google-Übersichten oder Chatbots liefern Antworten direkt, ohne den Nutzer zur Quelle zu schicken. Quellenlinks werden zwar angezeigt, aber selten angeklickt.
Cloudflare rechnet damit, dass der automatisierte Web-Verkehr bereits 2027 den menschlichen übertreffen wird. Rein werbefinanzierte Angebote würde das besonders hart treffen, weil Bots keine Anzeigen sehen und keine Abonnements abschließen.
Wie ging es weiter? – Cloudflare blockiert und kassiert
Cloudflare machte aus dieser Analyse ein Produkt. Seit Juli 2025 blockiert das Unternehmen KI-Crawler auf den Webseiten seiner Kunden standardmäßig und bietet ein sogenanntes Pay-per-Crawl-Modell an: Wer Inhalte maschinell abrufen will, zahlt dafür. Dutzende Verlage und Plattformen schlossen sich an, darunter die Nachrichtenagentur Associated Press, der Verlag Condé Nast sowie Reddit.
Reddit erzielt dabei laut Prince siebenmal so hohe Lizenzeinnahmen wie die New York Times – bei vergleichbarer Datenmenge. Der Grund: Reddit-Inhalte seien schwerlich ersetzbar. In den Foren tauschten sich Fachleute und Enthusiasten zu Spezialthemen aus, die keine andere Quelle in ähnlicher Tiefe abdecke.
Warum ist das wichtig? – Lokalwissen könnte zur Rarität werden
Prince sieht in dieser Entwicklung einen möglichen Gewinner: lokale Medien. Wer wisse, welches Restaurant in Park City gerade empfehlenswert sei oder wie die Schneebedingungen am nächsten Wochenende ausfielen, liefere Informationen, die bisher kein Algorithmus aus anderen Quellen zusammensetzen könne. Prince kennt das aus eigener Erfahrung. Gemeinsam mit seiner Frau betreibt er seit 2023 den Park Record, eine Lokalzeitung in Utah, als gemeinnütziges Unternehmen.
Ein strukturelles Hindernis bleibt bestehen: Google betreibt einen einzigen Crawler für fünf verschiedene Zwecke gleichzeitig – Suchindexierung, Markensicherheit, Antwortboxen, KI-Übersichten und das Training des eigenen Modells Gemini. Wer den Crawler blockiert, verschwindet aus der Google-Suche. Eine differenzierte Steuerung bietet Google bislang nicht an.
Für Kleinunternehmen fällt die Prognose eher skeptisch aus. Ein KI-Agent kennt weder Gewohnheit noch persönliche Bindung – er vergleicht Preise, Bewertungen und Reaktionszeiten. Wie viel eine Marke noch wert sei, wenn nicht mehr Menschen, sondern Agenten über Kaufentscheidungen bestimmen würden, sei eine der zentralen Fragen der kommenden Jahre, sagte Prince. Eine klare Antwort gab er nicht.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.