Scraping BrowserएकीकरणBrowser Use

ब्राउज़र उपयोग

ब्राउज़र उपयोग एक ब्राउज़र ऑटोमेशन एसडीके है जो स्क्रीनशॉट का उपयोग ब्राउज़र की स्थिति और क्रियाओं को कैप्चर करने के लिए करता है ताकि उपयोगकर्ता इंटरैक्शन का अनुकरण किया जा सके। यह अध्याय परिचय देगा कि आप सरल कॉल के साथ वेब पर एजेंट कार्यों को निष्पादित करने के लिए browser-use का आसानी से उपयोग कैसे कर सकते हैं।

स्क्रैपलेस API कुंजी प्राप्त करें

डैशबोर्ड के सेटिंग्स टैब पर जाएँ:

फिर अपनी .env फ़ाइल में SCRAPELESS_API_KEY पर्यावरण चर को कॉपी और सेट करें।

आपकी .env फ़ाइल में OPENAI_API_KEY पर्यावरण चर भी आवश्यक हैं।

OPENAI_API_KEY=your-openai-api-key
SCRAPELESS_API_KEY=your-scrapeless-api-key

💡अपनी वास्तविक API कुंजी के साथ नमूना API कुंजी को बदलना याद रखें।

ब्राउज़र उपयोग स्थापित करें

pip (Python>=3.11) के साथ:

pip install browser-use

मेमोरी कार्यक्षमता के लिए (PyTorch संगतता के कारण Python<3.13 की आवश्यकता है):

pip install "browser-use[memory]"

ब्राउज़र और एजेंट कॉन्फ़िगरेशन सेट करें

यहाँ ब्राउज़र को कॉन्फ़िगर करने और एक ऑटोमेशन एजेंट बनाने का तरीका बताया गया है:

from dotenv import load_dotenv
import os
import asyncio
from urllib.parse import urlencode
from langchain_openai import ChatOpenAI
from browser_use import Agent, Browser, BrowserConfig
from pydantic import SecretStr
 
task = "Go to Google, search for 'Scrapeless', click on the first post and return to the title"
 
async def setup_browser() -> Browser:
    scrapeless_base_url = "wss://browser.scrapeless.com/browser"
    query_params = {
        "token": os.environ.get("SCRAPELESS_API_KEY"),
        "session_ttl": 180,
        "proxy_country": "ANY"
    }
    browser_ws_endpoint = f"{scrapeless_base_url}?{urlencode(query_params)}"
    config = BrowserConfig(cdp_url=browser_ws_endpoint)
    browser = Browser(config)
    return browser
 
async def setup_agent(browser: Browser) -> Agent:
    llm = ChatOpenAI(
        model="gpt-4o", # Or choose the model you want to use
        api_key=SecretStr(os.environ.get("OPENAI_API_KEY")),
    )
 
    return Agent(
        task=task,
        llm=llm,
        browser=browser,
    )

मुख्य फलन बनाएँ

यहाँ मुख्य फलन है जो सब कुछ एक साथ जोड़ता है:

async def main():
    load_dotenv()
    browser = await setup_browser()
    agent = await setup_agent(browser)
    result = await agent.run()
    print(result)
    await browser.close()
 
asyncio.run(main())

अपनी स्क्रिप्ट चलाएँ

अपनी स्क्रिप्ट चलाएँ:

python run main.py

आपको अपना स्क्रैपलेस सत्र स्क्रैपलेस डैशबोर्ड में शुरू दिखाई देना चाहिए।

पूर्ण कोड

from dotenv import load_dotenv
import os
import asyncio
from urllib.parse import urlencode
from langchain_openai import ChatOpenAI
from browser_use import Agent, Browser, BrowserConfig
from pydantic import SecretStr
 
task = "Go to Google, search for 'Scrapeless', click on the first post and return to the title"
 
async def setup_browser() -> Browser:
    scrapeless_base_url = "wss://browser.scrapeless.com/browser"
    query_params = {
        "token": os.environ.get("SCRAPELESS_API_KEY"),
        "session_ttl": 180,
        "proxy_country": "ANY"
    }
    browser_ws_endpoint = f"{scrapeless_base_url}?{urlencode(query_params)}"
    config = BrowserConfig(cdp_url=browser_ws_endpoint)
    browser = Browser(config)
    return browser
 
async def setup_agent(browser: Browser) -> Agent:
    llm = ChatOpenAI(
        model="gpt-4o", # Or choose the model you want to use
        api_key=SecretStr(os.environ.get("OPENAI_API_KEY")),
    )
 
    return Agent(
        task=task,
        llm=llm,
        browser=browser,
    )
 
async def main():
    load_dotenv()
    browser = await setup_browser()
    agent = await setup_agent(browser)
    result = await agent.run()
    print(result)
    await browser.close()
 
asyncio.run(main())

💡ब्राउज़र उपयोग वर्तमान में केवल Python का समर्थन करता है।

💡आप सत्र की प्रगति को वास्तविक समय में देखने के लिए लाइव सत्र में URL की प्रतिलिपि बना सकते हैं, और आप सत्र इतिहास में सत्र का रिप्ले भी देख सकते हैं।