Node SDK
स्थापना
Scrapeless Node SDK को स्थापित करने के लिए, आप npm का उपयोग कर सकते हैं:
npm install @scrapeless-ai/sdk
त्वरित शुरुआत
- Scrapeless डैशबोर्ड में लॉग इन करें और API कुंजी प्राप्त करें
- API कुंजी को
SCRAPELESS_API_KEY
नामक एक पर्यावरण चर के रूप में सेट करें या इसेScrapeless
क्लास में एक पैरामीटर के रूप में पास करें।
यहाँ एक बुनियादी उदाहरण दिया गया है:
import { Scrapeless } from '@scrapeless-ai/sdk';
const client = new Scrapeless({
apiKey: 'YOUR_API_KEY' // or use SCRAPELESS_API_KEY env variable
});
उपलब्ध सेवाएँ
1. स्क्रैपिंग ब्राउज़र (ब्राउज़र ऑटोमेशन रैपर)
स्क्रैपिंग ब्राउज़र मॉड्यूल Scrapeless ब्राउज़र API के ऊपर बनाया गया ब्राउज़र ऑटोमेशन के लिए एक उच्च-स्तरीय, एकीकृत API प्रदान करता है। यह Puppeteer और Playwright दोनों को सपोर्ट करता है, और मानक पृष्ठ ऑब्जेक्ट को उन्नत विधियों जैसे realClick
, realFill
, और liveURL
के साथ विस्तारित करता है ताकि अधिक मानव जैसा ऑटोमेशन हो सके।
import { Puppeteer } from '@scrapeless-ai/sdk';
const browser = await Puppeteer.connect({
session_name: 'my-session',
session_ttl: 180,
proxy_country: 'US'
});
const page = await browser.newPage();
await page.goto('https://example.com');
await page.realClick('#login-btn');
await page.realFill('#username', 'myuser');
const urlInfo = await page.liveURL();
console.log('Current page URL:', urlInfo.liveURL);
await browser.close();
मुख्य विशेषताएँ:
- Puppeteer और Playwright के लिए एकीकृत API
- मानव जैसा ऑटोमेशन:
realClick
,realFill
,liveURL
- Scrapeless ब्राउज़र सत्रों के साथ आसान एकीकरण
2. ब्राउज़र API
उन्नत ऑटोमेशन परिदृश्यों के लिए सीधे ब्राउज़र सत्रों का प्रबंधन करें।
// Create a browser session
const session = await client.browser.create({
session_name: 'api-session',
session_ttl: 120,
proxy_country: 'US'
});
console.log('Browser session info:', session);
3. स्क्रैपिंग API
वेब पेजों को स्क्रैप करें और विभिन्न प्रारूपों में सामग्री निकालें।
const result = await client.scraping.scrape({
actor: 'scraper.shopee',
input: {
url: 'https://shopee.tw/product/58418206/7180456348'
}
});
console.log('result: ', result);
4. डीप SerpApi
सर्च इंजन परिणाम (जैसे, Google) निकालें।
const searchResults = await client.deepserp.scrape({
actor: 'scraper.google.search',
input: {
q: 'nike site:www.nike.com'
}
});
console.log('Search results:', searchResults);
5. यूनिवर्सल API
लचीले डेटा निष्कर्षण के लिए सामान्य-उद्देश्य स्क्रैपिंग।
const universalResult = await client.universal.scrape({
url: 'https://example.com',
options: {
javascript: true,
screenshot: true,
extractMetadata: true
}
});
console.log('Universal scraping result:', universalResult);
6. प्रॉक्सी API
अपने स्क्रैपिंग और ऑटोमेशन कार्यों के लिए प्रॉक्सियों का प्रबंधन और कॉन्फ़िगर करें।
// Get proxy URL
const proxy_url = await client.proxies.proxy({
session_name: 'session_name',
session_ttl: 180,
proxy_country: 'US',
session_recording: true,
defaultViewport: null
});
console.log('Proxy URL:', proxy_url);
त्रुटि प्रबंधन
SDK व्यापक त्रुटि प्रबंधन प्रदान करता है:
try {
const result = await client.scraping.scrape({
actor: 'scraper.shopee',
input: {
url: 'https://shopee.tw/product/58418206/7180456348'
}
});
} catch (error) {
if (error instanceof ScrapelessError) {
console.error('Scrapeless error:', error.message);
console.error('Status code:', error.statusCode);
} else {
console.error('Unexpected error:', error);
}
}
विन्यास
SDK विभिन्न कॉन्फ़िगरेशन विकल्पों का समर्थन करता है:
const client = new Scrapeless({
apiKey: 'YOUR_API_KEY',
timeout: 30000, // request timeout in milliseconds
baseApiUrl: 'https://api.scrapeless.com',
browserApiUrl: 'https://browser.scrapeless.com'
});
पर्यावरण चर
SCRAPELESS_API_KEY
- आपकी API कुंजीSCRAPELESS_BASE_API_URL
- बेस API URLSCRAPELESS_BROWSER_API_URL
- ब्राउज़र API URL
सर्वोत्तम अभ्यास
- API कुंजी सुरक्षा: अपनी API कुंजी को कभी भी हार्डकोड न करें। पर्यावरण चर का उपयोग करें।
- त्रुटि प्रबंधन: API कॉल को हमेशा try-catch ब्लॉक में लपेटें।
- संसाधन सफाई: काम पूरा होने पर हमेशा ब्राउज़र कनेक्शन बंद करें।
- रेट सीमा: API दर सीमाओं का ध्यान रखें।
- समय सीमा कॉन्फ़िगरेशन: लंबे समय तक चलने वाले संचालन के लिए उपयुक्त समय सीमा सेट करें।
सहायता
सहायता, दस्तावेज़ीकरण और अधिक उदाहरणों के लिए, जाएँ:
- दस्तावेज़ीकरण: https://docs.scrapeless.com
- GitHub: https://github.com/scrapeless-ai/scrapeless-sdk-node
- सहायता: support@scrapeless.com