Scraping APIIntrodução rápidaComeçando

Começando

Fluxo de Requisição

  1. Submeter uma Tarefa Envie uma requisição POST para /api/v1/scraper/request.
  2. Lidar com a Resposta
    1. HTTP 200 (Sucesso): Os dados são retornados diretamente no corpo da resposta.
    2. HTTP 201 (Processando): Utilize o taskId fornecido para verificar os resultados.
  3. Verificar os Resultados Para tarefas assíncronas, chame repetidamente /api/v1/scraper/result/{taskId} até que os dados estejam prontos (HTTP 200).

Códigos de Status HTTP

CódigoSignificadoAção
200SucessoUtilize os dados do corpo da resposta diretamente.
201Tarefa em progressoVerifique /result/{taskId} (intervalo recomendado: 1-5 segundos).
400Parâmetros inválidosVerifique se os parâmetros da tarefa são válidos.
429Limite de taxa excedidoReduza a frequência de requisições ou entre em contato com o suporte para ajuste de cota.
500Erro interno do servidorTente novamente após 1 minuto; entre em contato com o suporte se o problema persistir.

Exemplos de Código

Fluxo Completo

import requests
import json
import time
 
API_KEY = "YOUR_API_KEY"
HOST = "api.scrapeless.com"
 
# Submit task
task_url = f"https://{HOST}/api/v1/scraper/request"
payload = json.dumps({
    "actor": "scraper.shopee",
    "input": {"url": "https://shopee.tw/a-i.10228173.24803858474"}
})
headers = {'Content-Type': 'application/json', 'x-api-token': API_KEY}
 
response = requests.post(task_url, headers=headers, data=payload)
 
# Handle response
if response.status_code == 200:
    print("Data:", response.json())
elif response.status_code == 201:
    task_id = response.json()["taskId"]
    print(f"Task queued. Polling ID: {task_id}")
 
    # Poll for results (max 10 attempts, 3s interval)
    max_retries = 10
    for _ in range(max_retries):
        result_url = f"https://{HOST}/api/v1/scraper/result/{task_id}"
        result_response = requests.get(result_url, headers=headers)
 
        if result_response.status_code == 200:
            print("Result:", result_response.json())
            break
        elif result_response.status_code == 201:
            print("Still processing. Retrying in 3s...")
            time.sleep(3)
        else:
            print(f"Error {result_response.status_code}: {result_response.text}")
            break
else:
    print(f"Request failed: {response.status_code} - {response.text}")
 

cURL (Exemplo de Verificação)

curl --location --request GET 'https://api.scrapeless.com/api/v1/scraper/result/30681c8b-bfd3-48eb-a7c9-006e40b00591' \
--header 'x-api-token: YOUR_API_KEY' \
--header 'Content-Type: application/json'
 

Parâmetros

ParâmetroTipoDescrição
actorstringServiço de scraping (e.g., scraper.shopee).
inputobjectParâmetros específicos da tarefa (e.g., action, url).
proxyobjectConfiguração de proxy opcional com campo country.

Notas

  1. Recomendações de Verificação
    1. Intervalo: 1-5 segundos.
    2. Tempo limite: Defina um limite máximo de tentativas (e.g., 10 tentativas).
  2. Dicas de Depuração
    1. Teste com URLs simples primeiro.