Legal SERP Scraper: SerpAPI, Google CSE, Perplexity (2025)

Evaluez cet article !
[Total: 0 Moyenne : 0]

„Legales“ SERP-Scraping & Monitoring: SerpAPI, Google CSE, Perplexity API — Kosten & Grenzen (2025)

TL;DR : Das direkte Scrapen von Google verstößt gegen dessen Nutzungsbedingungen — der „legale“ Weg führt über die Programmable Search API (CSE) oder über konforme Aggregatoren auf Anbieterseite. Für SEO/SEA-Monitoring in großem Umfang erleichtert SerpAPI den Zugriff auf SERPs (Kosten pro 1.000 von 5,50 bis 15 $ je nach Stufe), während Google CSE offiziell 5 $ / 1.000 Anfragen berechnet (bis zu 10.000/Tag). Perplexity API ist keine SERP-API: Es handelt sich um eine Such- + LLM-API, die nach Tokens und „Request Fees“ abgerechnet wird — ideal für KI-gestütztes Monitoring und Berichte.

Équipe analysant un tableau de bord de recherche et d’analytics
Titelbild: Den richtigen Zugang zu SERPs wählen, zwischen Konformität, Kosten und Skalierbarkeit.

„Legaler“ Rahmen & Definitionen

Da Google automatisierten, nicht autorisierten Zugriff auf seine Ergebnisse verbietet, besteht die konforme Alternative darin, die offiziellen Angebote (Programmable Search Engine — CSE — und dessen Custom Search JSON API) zu nutzen oder die Datenerfassung an einen Drittanbieter auszulagern, der seine eigenen rechtlichen Rahmenbedingungen einhält (z.B. SerpAPI, das Ergebnisdaten liefert). Wichtig: Die nachfolgenden Informationen sind informativ und stellen keine Rechtsberatung dar; im Zweifel konsultieren Sie Ihren Juristen oder die CNIL.Terminologie: Im Artikel wird als „Scraper“ jedes Tool bezeichnet, das SERP-Daten zurückliefert; „Monitoring“ umfasst die periodische Beobachtung von Keywords, Wettbewerbern, Autoren, Produkten und Nachrichten.

Überblick der Optionen: SerpAPI, Google CSE, Perplexity API

1) SerpAPI (SERP-Aggregator)

Was es ist: Ein Service, der Google-Ergebnisse (und andere Suchmaschinen) im JSON-Format über Endpunkte bereitstellt (Google Search, Bilder, News, Maps etc.). Der Vorteil liegt darin, die Anti-Bot-Komplexität und Infrastruktur auszulagern. Die Pläne für 2025 reichen von 250 kostenlosen Anfragen/Monat bis zu Stufen mit 5k, 15k, 30k und 100k–500k/Monat; die FAQ stellt klar, dass eine berechnete Suche = eine erfolgreiche Anfrage ist (unabhängig von der Anzahl der zurückgegebenen Ergebnisse).

  • Vorteile: Einfachheit, breite API-Abdeckung (News, Local, Bilder…), U.S. Legal Shield bei bestimmten Plänen, hohe Durchsatz-Toleranz.
  • Grenzen: Kosten pro 1.000 höher als beim offiziellen CSE bei kleinem Volumen; Abhängigkeit von einem Drittanbieter; rechtliche Aspekte je nach Nutzung zu prüfen.
Lire aussi  Das Rezept für den Erfolg Ihrer Suchmaschinenoptimierung bei Google News und Discover

2) Google Programmable Search (CSE) & Custom Search JSON API

Was es ist: Der offizielle Weg, um Ergebnisse aus Ihrer Programmable Search Engine anzuzeigen/zu erhalten. Die JSON-API bietet 100 kostenlose Anfragen/Tag, danach 5 $ / 1.000 bis zu 10.000 Anfragen/Tag. Technisch liefert der Endpunkt cse.list 10 Ergebnisse pro Seite und maximal 100 Ergebnisse pro Anfrage (Paginierung über start und num).

  • Vorteile: Google-Konformität, geringe und vorhersehbare Kosten, einfache Integration auf Server- oder Client-Seite.
  • Grenzen: tägliches Limit von 10k (Google erhöht nicht mehr), und maximal 100 Ergebnisse pro Anfrage. Die Variante „Site Restricted JSON API“ wurde am 8. Januar 2025 eingestellt (Migration zu Vertex AI Search empfohlen).

3) Perplexity API (Suche + LLM, keine SERP-API)

Was es ist: eine AI-Such-API, die das Web abfragt und eine quellengestützte Zusammenfassung über verschiedene Modelle generiert (Sonar, Sonar Pro, Sonar Reasoning, Deep Research). Die Abrechnung ist hybrid: Tokens (von 1 $ bis 15 $ / 1 Mio. je nach Modell) + eine „Request-Gebühr“, die sich auf den Suchkontext bezieht. Deep Research berechnet außerdem interne Websuchen (~5 $ / 1.000 Suchanfragen), mit bereitgestellten Kostenbeispielen (z. B. 0,153 $ für einen Lauf mit 30 Suchanfragen).

  • Stärken: kontextualisierte Antworten mit Quellen, ideal für redaktionelles Monitoring, Nachrichten-Zusammenfassungen, Vergleiche und Berichte.
  • Beschränkungen: es ist keine „rohe“ SERP-API; Rate Limits gestaffelt (Tier 0: 50 RPM bei Sonar, 5 RPM bei Deep Research), variable Kosten je nach Volumen interner Suchen.
Entwickler, der Such-APIs in ein Projekt integriert
Integration: Einfaches JSON bei SerpAPI & CSE; SDK/REST kompatibel mit OpenAI bei Perplexity.

Preise, Kontingente & Limits — Vergleichstabelle

LösungTypKostenlosIndikative PreiseKosten ≈ / 1.000Wichtige Kontingente & Limits
SerpAPISERP-Aggregator250/MonatDev 5 k → 75 $/Mon • Prod 15 k → 150 $/Mon • Big Data 30 k → 275 $/Mon • High Volume 100 k → 725 $/Mon, 250 k → 1.475 $/Mon, 500 k → 2.750 $/Mon15 $ → 5,50 $„1 erfolgreiche Suche = 1 Kredit“; viele Verticals (News, Local, Bilder…)
Google CSE (Custom Search JSON API)Offiziell Google100/Tag5 $ / 1.000 Anfragen (bis zu 10.000/Tag)5 $10 Ergebnisse/Seite, max. 100 pro Anfrage; über 10k/Tag nicht erweiterbar; „Site Restricted“ eingestellt am 08.01.2025.
Perplexity APIKI + SucheTokens (1–15 $ / 1 Mio.) + Request-Gebühr (z. B. 0,005 $ für Sonar Websuche); Deep Research berechnet zusätzlich „Suchanfragen“ (~5 $ / 1.000)≈ 5,7 $ / 1.000 (z. B. Sonar 500 in + 200 out)Rate Limits nach „Tier“ (Tier 0: 50 RPM Sonar, 5 RPM Deep Research); keine rohe SERP-API.

Kostenverständnis: Bei Perplexity variieren die Kosten je nach Tokens und der Anzahl der vom Modell durchgeführten Suchanfragen (Deep Research). Bei SerpAPI sind die Kosten linear pro erfolgreicher Anfrage. Bei CSE sind sie linear pro abrechenbarer Anfrage und täglich begrenzt.

Lire aussi  Cemantix-Lösung: Der ultimative Leitfaden, um Ihre SERPs im Jahr 2025 zu dominieren

Anwendungsfälle für Monitoring (SEO, Medien, Produkte)

SEO/SEA — Top 10 & Featured Snippets Tracking

  • Moderates Volumen (≤ 10 k/Tag): CSE eignet sich, wenn Ihre PSE „im gesamten Web sucht“. Denken Sie an Sampling (jeden zweiten Tag), um unter dem Limit zu bleiben.
  • Hohes Volumen (> 10 k/Tag, mehrere Länder, Bilder/News): SerpAPI ist einfacher zu betreiben (hohe Kontingente, dedizierte Endpunkte für News/Bilder/Local).

Redaktionelles Monitoring & Konkurrenz

Perplexity API glänzt darin, Trends (Pressemitteilungen, Blogs, technische Dokumente, Presse) zusammenzufassen und mit Quellen zu versehen, indem es eine Antwort plus Links liefert. Ideal für Marktbriefings, Newsletter oder Executive-Dashboards.

Lokales Monitoring/Bewertungen

Um Google Maps/Local (Bewertungen, Positionen, Öffnungszeiten) zu überwachen, ist der pragmatischste Weg die Nutzung der dedizierten Endpunkte eines Aggregators (SerpAPI) anstelle von CSE.

Tastatur, Bildschirm und Smartphone, die Überwachung und Automatisierung illustrieren
Moderne Überwachung: Kombination von Rohdaten (SERP) und KI-Zusammenfassungen für schnellere Entscheidungen.

Einrichtung: Schritt für Schritt und Snippets

A) Google CSE (Custom Search JSON API)

  1. Erstellen Sie eine Programmable Search Engine (PSE) und holen Sie sich cx (Search Engine ID) + key API.
  2. Aktivieren Sie die Abrechnung, wenn Sie 100/Tag überschreiten; legen Sie ein tägliches Kontingent in Google Cloud fest, um die Ausgaben zu kontrollieren.
  3. Implementieren Sie den Serveraufruf:
curl "https://www.googleapis.com/customsearch/v1?key=VOTRE_CLE&cx=VOTRE_CX&q=mot+cle&num=10&start=1"

Erinnerungen: num ≤ 10; maximal 100 Ergebnisse pro Suche (paginieren über start).

B) SerpAPI

  1. Erstellen Sie einen Schlüssel, wählen Sie den Endpunkt (Search, News, Images…)
  2. Testen Sie im Playground und gehen Sie dann in die Produktion:
curl "https://serpapi.com/search.json?q=mot+cle&engine=google&api_key=VOTRE_CLE&hl=fr&gl=fr&num=10&start=0"

Zählweise: 1 erfolgreiche Antwort = 1 Kredit (unabhängig von der Anzahl der Ergebnisse).

C) Perplexity API

  1. Erstellen Sie eine API-Gruppe, prüfen Sie Ihren Tier (bestimmt die RPM).
  2. Wählen Sie das Modell (z. B. sonar für schnelle Q/A, sonar-deep-research für Berichte).
curl https://api.perplexity.ai/chat/completions 
 -H "Authorization: Bearer $PPLX_KEY" -H "Content-Type: application/json" 
 -d '{"model":"sonar","messages":[{"role":"user","content":"Fais un résumé sourcé des nouveautés SEO du mois"}]}'

Kosten = Tokens + Anfragegebühr; Deep Research fügt interne „Suchanfragen“ hinzu.

Lire aussi  Vollständiger Leitfaden zur Optimierung der internen Verlinkung Ihrer Website

Wie viel einplanen? Budget-Szenarien

SzenarioAnnahmenMonatliche SchätzungKommentar
Verfolgung von 1.000 Keywords wöchentlich (Top 10)4 Durchläufe/Monat × 1.000 Anfragen = 4.000CSE ≈ 20 $; SerpAPI ≈ 60–75 $; Perplexity (Sonar) ≈ 23 $**Sonar ~0,0057 $/Anfrage (Annahme 500 Eingaben + 200 Ausgaben + Anfragegebühr)
Intensive länderübergreifende Überwachung100.000 Anfragen/Monat (SERP + News)SerpAPI Plan 100k: 725 $Vorteil: spezialisierte Endpunkte (News, Local), hohe Durchsatzrate.
Monatliche Berichte „Deep Research“1.000 Läufe × 30 interne Suchanfragen/Lauf≈ 153 $ (Suchanfragen) + TokensBasierend auf dem Beispiel der Deep Research Kosten.
Serverraum und Netzwerk, die die Skalierung illustrieren
Ab 10.000/Tag erreicht CSE seine Grenze: Planen Sie eine hybride Architektur oder einen Aggregator ein.

Risiken, Compliance & bewährte Praktiken

  • Respektieren Sie die ToS: Automatisieren Sie keine direkten Anfragen an google.com; bevorzugen Sie CSE (offiziell) oder einen Drittanbieter.
  • Begrenzen Sie personenbezogene Daten (DSGVO/CNIL): anonymisieren Sie die Protokolle, minimieren Sie die gespeicherten Felder, definieren Sie eine rechtliche Grundlage für die Verarbeitung.
  • Kontrollieren Sie die Ausgaben: Legen Sie bei CSE ein Tageskontingent in GCP fest; bei SerpAPI überwachen Sie den Kreditzähler; bei Perplexity kontrollieren Sie Tokens und Anfraggebühren.
  • Interne Transparenz: Dokumentieren Sie Ihre Quellen und die Rechtmäßigkeit des Datenzugriffs (insbesondere für die Presse).

Goldene Regel: Wenn die Daten strategisch und sensibel sind (geschützte Medien, Paywalls), bevorzugen Sie Lizenzen und/oder offizielle APIs dieser Anbieter.

Trends 2025

  • Ende der „Site Restricted JSON API“ (8. Januar 2025) und Umstieg auf Vertex AI Search.
  • KI + Suche: Zunahme von Workflows für erweiterte Überwachung (Anfragen → quellenbasierte Zusammenfassungen → Dashboard).
  • Verschärfung der Bot-Abwehr: CAPTCHAs, JS-Rendering, Verhaltenssignale → Vorteil spezialisierter Aggregatoren.

FAQ — „Legales“ Scraping von SERP & Monitoring

Ist das Scrapen von Google legal? Die Automatisierung von Anfragen direkt an google.com verstößt gegen deren Nutzungsbedingungen. Der empfohlene Weg: Programmable Search (CSE) über die offizielle API oder ein Drittanbieter (z. B. SerpAPI), der die Erfassungsinfrastruktur betreibt und Ihnen die Ergebnisse liefert. Reicht Google CSE für großflächiges SEO-Monitoring aus? Ja, bis zu 10.000 Anfragen/Tag (davon 100 kostenlos), mit 10 Ergebnissen/Seite und maximal 100 pro Anfrage. Darüber hinaus wechseln Sie zu einem Aggregator oder verteilen die Last auf mehrere Projekte/Motoren (innerhalb der Regeln). SerpAPI vs. CSE: Was wählen? CSE, wenn Sie ≤ 10k/Tag bleiben und die minimalen Kosten suchen (5 $ / 1.000). SerpAPI, wenn Sie Multi-Vertical-Bedarf haben (News, Lokal, Bilder), ein hohes monatliches Volumen (bis zu 500k+) und hohe Durchsatzraten benötigen. Kann die Perplexity API eine SERP-API ersetzen? Nein. Sie ergänzt den Zugriff auf SERPs durch erweiterte Überwachung (quellenbasierte Zusammenfassungen). Für rohe Ranking-Tabellen verwenden Sie CSE/SerpAPI; für Briefings und Berichte ist Perplexity geeignet. Was kostet die Perplexity API für tägliches Monitoring? Im Sonar-Modus etwa 0,0057 $ / Anfrage für 500 Eingabe-Tokens + 200 Ausgabe-Tokens + eine indikative „request fee“. Deep Research fügt ca. 0,005 $ pro interne Websuche hinzu (z. B. 30 Suchen ≈ 0,15 $ / Durchlauf) plus Tokens. Kann man über 10k/Tag bei CSE hinausgehen? Nein, Google gewährt keine Erweiterungen über das Limit von 10k/Tag hinaus. Planen Sie bei Bedarf eine hybride Architektur (CSE + Aggregator).

Zuverlässige Quellen



Evaluez cet article !
[Total: 0 Moyenne : 0]
Julie - auteure Com-Strategie.fr

Julie – Auteure & Fondatrice

Étudiante en journalisme et passionnée de technologie, Julie partage ses découvertes autour de l’IA, du SEO et du marketing digital. Sa mission : rendre la veille technologique accessible et proposer des tutoriels pratiques pour le quotidien numérique.

Schreibe einen Kommentar