Scraping APIक्विकस्टार्टशुरू करना

आरंभ करना

अनुरोध कार्यप्रवाह

  1. कार्य सबमिट करें /api/v1/scraper/request पर एक POST अनुरोध भेजें।
  2. प्रतिक्रिया को संभालें
    1. HTTP 200 (सफलता): डेटा सीधे प्रतिक्रिया बॉडी में वापस आ जाता है।
    2. HTTP 201 (प्रसंस्करण): परिणामों के लिए पूछताछ करने के लिए दिए गए taskId का उपयोग करें।
  3. परिणामों के लिए पूछताछ करें अतुल्यकालिक कार्यों के लिए, डेटा तैयार होने तक (HTTP 200) बार-बार /api/v1/scraper/result/{taskId} कॉल करें।

HTTP स्थिति कोड

कोडअर्थक्रिया
200सफलताप्रतिक्रिया बॉडी डेटा का सीधे उपयोग करें।
201कार्य प्रगति पर है/result/{taskId} के लिए पूछताछ करें (अनुशंसित अंतराल: 1-5 सेकंड)।
400अमान्य पैरामीटरकृपया जांचें कि कार्य पैरामीटर मान्य हैं या नहीं।
429दर सीमा पार हो गईअनुरोध आवृत्ति कम करें या कोटा समायोजन के लिए समर्थन से संपर्क करें।
500आंतरिक सर्वर त्रुटि1 मिनट के बाद पुनः प्रयास करें; यदि लगातार समस्या है तो समर्थन से संपर्क करें।

कोड उदाहरण

पूर्ण कार्यप्रवाह

import requests
import json
import time
 
API_KEY = "YOUR_API_KEY"
HOST = "api.scrapeless.com"
 
# कार्य सबमिट करें
task_url = f"https://{HOST}/api/v1/scraper/request"
payload = json.dumps({
    "actor": "scraper.shopee",
    "input": {"url": "https://shopee.tw/a-i.10228173.24803858474"}
})
headers = {'Content-Type': 'application/json', 'x-api-token': API_KEY}
 
response = requests.post(task_url, headers=headers, data=payload)
 
# प्रतिक्रिया को संभालें
if response.status_code == 200:
    print("Data:", response.json())
elif response.status_code == 201:
    task_id = response.json()["taskId"]
    print(f"Task queued. Polling ID: {task_id}")
 
    # परिणामों के लिए पूछताछ करें (अधिकतम 10 प्रयास, 3s अंतराल)
    max_retries = 10
    for _ in range(max_retries):
        result_url = f"https://{HOST}/api/v1/scraper/result/{task_id}"
        result_response = requests.get(result_url, headers=headers)
 
        if result_response.status_code == 200:
            print("Result:", result_response.json())
            break
        elif result_response.status_code == 201:
            print("Still processing. Retrying in 3s...")
            time.sleep(3)
        else:
            print(f"Error {result_response.status_code}: {result_response.text}")
            break
else:
    print(f"Request failed: {response.status_code} - {response.text}")
 

cURL (पूछताछ उदाहरण)

curl --location --request GET 'https://api.scrapeless.com/api/v1/scraper/result/30681c8b-bfd3-48eb-a7c9-006e40b00591' \
--header 'x-api-token: YOUR_API_KEY' \
--header 'Content-Type: application/json'
 

पैरामीटर

पैरामीटरप्रकारविवरण
actorstringस्क्रैपिंग सेवा (जैसे, scraper.shopee)।
inputobjectकार्य-विशिष्ट पैरामीटर (जैसे, क्रिया, url)।
proxyobjectवैकल्पिक प्रॉक्सी कॉन्फ़िगरेशन देश फ़ील्ड के साथ।

नोट्स

  1. पूछताछ सिफारिशें
    1. अंतराल: 1-5 सेकंड।
    2. समय सीमा: अधिकतम पुनः प्रयास सीमा सेट करें (जैसे, 10 प्रयास)।
  2. डीबगिंग युक्तियाँ
    1. पहले साधारण URL के साथ परीक्षण करें।