Serpapi profundoIntrodução rápidaComeçando

Começando

Explicação dos Parâmetros

ParâmetroTipoDescrição
actorstringUm parâmetro muito importante, representa um serviço. Clique para visualizar as informações da lista de atores do scraper
inputobjectParâmetros necessários pelo ator para completar uma tarefa de raspagem de dados.
proxyobjectO campo country, utilize um proxy desta região para enviar requisições.

Descrição de Sucesso da Tarefa

  • Um código HTTP 200 indica que a tarefa foi bem-sucedida, e o corpo da resposta são os dados.

Descrição de Tarefa em Andamento

  • Um código HTTP 201 indica que a tarefa está sendo processada, por favor recupere o resultado da tarefa através do taskId.
{"message": "task in progress", "taskId":"30681c8b-bfd3-48eb-a7c9-006e40b00591"}

Descrição de Falha da Tarefa

  • Código HTTP 429, Muitas requisições.
  • Código HTTP 400, por favor verifique se os parâmetros da tarefa são válidos.
  • Código HTTP 500, erro interno do servidor.

Exemplo de Requisição

Usando Python para recuperar dados da Pesquisa Google

import json
 
import requests
 
def send_request():
    host = "api.scrapeless.com"
    url = f"https://{host}/api/v1/scraper/request"
    token = "your_api_key"
 
    headers = {
        "x-api-token": token
        "Content-Type": "application/json"
    }
 
    json_payload = json.dumps({
        "actor": "scraper.google.search",
        "input": {
            "q": "Top news headlines",
            "gl": "us",
            "hl": "en",
            "google_domain": "google.com"
        }
    })
 
    response = requests.post(url, headers=headers, data=json_payload)
 
    if response.status_code != 200:
        print("Error:", response.status_code, response.text)
        return
 
    print("body", response.text)
 
if __name__ == "__main__":
    send_request()