आरंभ करना
पैरामीटर स्पष्टीकरण
पैरामीटर | प्रकार | विवरण |
---|---|---|
actor | string | एक बहुत ही महत्वपूर्ण पैरामीटर, यह एक सेवा का प्रतिनिधित्व करता है। स्क्रैपर ऐक्टर सूची की जानकारी देखने के लिए क्लिक करें |
input | object | डेटा स्क्रैपिंग कार्य को पूरा करने के लिए ऐक्टर द्वारा आवश्यक पैरामीटर। |
proxy | object | देश फ़ील्ड, अनुरोध भेजने के लिए इस क्षेत्र से एक प्रॉक्सी का उपयोग करें। |
कार्य सफलता विवरण
- 200 का HTTP कोड इंगित करता है कि कार्य सफल रहा है, और प्रतिक्रिया बॉडी डेटा है।
कार्य प्रगति विवरण
- 201 का HTTP कोड इंगित करता है कि कार्य संसाधित किया जा रहा है, कृपया taskId के माध्यम से कार्य परिणाम प्राप्त करें।
{"message": "task in progress", "taskId":"30681c8b-bfd3-48eb-a7c9-006e40b00591"}
कार्य विफलता विवरण
- HTTP कोड 429, बहुत अधिक अनुरोध।
- HTTP कोड 400, कृपया जांचें कि क्या कार्य पैरामीटर मान्य हैं।
- HTTP कोड 500, आंतरिक सर्वर त्रुटि।
अनुरोध उदाहरण
Google खोज डेटा प्राप्त करने के लिए Python का उपयोग करना
import json
import requests
def send_request():
host = "api.scrapeless.com"
url = f"https://{host}/api/v1/scraper/request"
token = "your_api_key"
headers = {
"x-api-token": token
"Content-Type": "application/json"
}
json_payload = json.dumps({
"actor": "scraper.google.search",
"input": {
"q": "Top news headlines",
"gl": "us",
"hl": "en",
"google_domain": "google.com"
}
})
response = requests.post(url, headers=headers, data=json_payload)
if response.status_code != 200:
print("Error:", response.status_code, response.text)
return
print("body", response.text)
if __name__ == "__main__":
send_request()