ब्राउज़र उपयोग
ब्राउज़र उपयोग एक ब्राउज़र ऑटोमेशन SDK है जो ब्राउज़र की स्थिति को कैप्चर करने के लिए स्क्रीनशॉट और उपयोगकर्ता इंटरैक्शन को अनुकरण करने के लिए क्रियाओं का उपयोग करता है। यह अध्याय यह परिचय देगा कि आप सरल कॉल के साथ वेब पर एजेंट कार्यों को निष्पादित करने के लिए browser-use का आसानी से उपयोग कैसे कर सकते हैं।
स्क्रैपलेस API कुंजी प्राप्त करें
डैशबोर्ड के सेटिंग्स टैब पर जाएँ:

फिर अपनी .env फ़ाइल में SCRAPELESS_API_KEY पर्यावरण चर को कॉपी और सेट करें।
आपकी .env फ़ाइल में OPENAI_API_KEY पर्यावरण चर भी आवश्यक हैं।
OPENAI_API_KEY=your-openai-api-key
SCRAPELESS_API_KEY=your-scrapeless-api-key💡अपनी वास्तविक API कुंजी के साथ नमूना API कुंजी को बदलना याद रखें।
ब्राउज़र उपयोग स्थापित करें
pip (Python>=3.11) के साथ:
pip install browser-useमेमोरी कार्यक्षमता के लिए (PyTorch संगतता के कारण Python<3.13 की आवश्यकता है):
pip install "browser-use[memory]"ब्राउज़र और एजेंट कॉन्फ़िगरेशन सेट करें
यहाँ ब्राउज़र को कॉन्फ़िगर करने और एक ऑटोमेशन एजेंट बनाने का तरीका बताया गया है:
from dotenv import load_dotenv
import os
import asyncio
from urllib.parse import urlencode
from browser_use import Agent, Browser, ChatOpenAI
from pydantic import SecretStr
task = "Go to Google, search for 'Scrapeless', click on the first post and return to the title"
async def setup_browser() -> Browser:
scrapeless_base_url = "wss://browser.scrapeless.com/api/v2/browser"
query_params = {
"token": os.environ.get("SCRAPELESS_API_KEY"),
"sessionTTL": 900,
"proxyCountry": "ANY"
}
browser_ws_endpoint = f"{scrapeless_base_url}?{urlencode(query_params)}"
browser = Browser(cdp_url=browser_ws_endpoint)
return browser
async def setup_agent(browser: Browser) -> Agent:
llm = ChatOpenAI(
model="gpt-4o", # Or choose the model you want to use
api_key=SecretStr(os.environ.get("OPENAI_API_KEY")),
)
return Agent(
task=task,
llm=llm,
browser=browser,
)मुख्य फलन बनाएँ
यहाँ मुख्य फलन है जो सब कुछ एक साथ जोड़ता है:
async def main():
load_dotenv()
browser = await setup_browser()
await browser.start()
agent = await setup_agent(browser)
result = await agent.run()
print(result)
await browser.kill()
asyncio.run(main())अपनी स्क्रिप्ट चलाएँ
अपनी स्क्रिप्ट चलाएँ:
python run main.pyआपको अपना स्क्रैपलेस सत्र स्क्रैपलेस डैशबोर्ड में शुरू होना चाहिए।
पूर्ण कोड
from dotenv import load_dotenv
import os
import asyncio
from urllib.parse import urlencode
from browser_use import Agent, Browser, ChatOpenAI
from pydantic import SecretStr
task = "Go to Google, search for 'Scrapeless', click on the first post and return to the title"
async def setup_browser() -> Browser:
scrapeless_base_url = "wss://browser.scrapeless.com/api/v2/browser"
query_params = {
"token": os.environ.get("SCRAPELESS_API_KEY"),
"sessionTTL": 900,
"proxyCountry": "ANY"
}
browser_ws_endpoint = f"{scrapeless_base_url}?{urlencode(query_params)}"
browser = Browser(cdp_url=browser_ws_endpoint)
return browser
async def setup_agent(browser: Browser) -> Agent:
llm = ChatOpenAI(
model="gpt-4o", # Or choose the model you want to use
api_key=SecretStr(os.environ.get("OPENAI_API_KEY")),
)
return Agent(
task=task,
llm=llm,
browser=browser,
)
async def main():
load_dotenv()
browser = await setup_browser()
await browser.start()
agent = await setup_agent(browser)
result = await agent.run()
print(result)
await browser.kill()
asyncio.run(main())💡ब्राउज़र उपयोग वर्तमान में केवल पायथन का समर्थन करता है।
💡आप वास्तविक समय में सत्र की प्रगति देखने के लिए लाइव सत्र में URL की प्रतिलिपि बना सकते हैं, और आप सत्र इतिहास में सत्र का पुनरावलोकन भी देख सकते हैं।