ブラウザの使用
ブラウザの使用は、ブラウザの状況をスクリーンショットでキャプチャし、ユーザーインタラクションをシミュレートするアクションを使用するブラウザ自動化SDKです。この章では、シンプルな呼び出しでbrowser-useを使用してWebでエージェントタスクを簡単に実行する方法を紹介します。
Scrapeless APIキーを取得する
ダッシュボードの設定タブを確認してください:

次に、SCRAPELESS_API_KEY環境変数を.envファイルにコピーして設定します。
.envファイル内のOPENAI_API_KEY環境変数も必要です。
OPENAI_API_KEY=your-openai-api-key
SCRAPELESS_API_KEY=your-scrapeless-api-key💡サンプルAPIキーを実際のAPIキーに置き換えることを忘れないでください。
Browser Useのインストール
pip (Python>=3.11)を使用する場合:
pip install browser-useメモリ機能の場合(PyTorchとの互換性のためにPython<3.13が必要です):
pip install "browser-use[memory]"ブラウザとエージェントの設定
ブラウザを設定し、自動化エージェントを作成する方法は次のとおりです。
from dotenv import load_dotenv
import os
import asyncio
from urllib.parse import urlencode
from browser_use import Agent, Browser, ChatOpenAI
from pydantic import SecretStr
task = "Go to Google, search for 'Scrapeless', click on the first post and return to the title"
async def setup_browser() -> Browser:
scrapeless_base_url = "wss://browser.scrapeless.com/api/v2/browser"
query_params = {
"token": os.environ.get("SCRAPELESS_API_KEY"),
"sessionTTL": 900,
"proxyCountry": "ANY"
}
browser_ws_endpoint = f"{scrapeless_base_url}?{urlencode(query_params)}"
browser = Browser(cdp_url=browser_ws_endpoint)
return browser
async def setup_agent(browser: Browser) -> Agent:
llm = ChatOpenAI(
model="gpt-4o", # Or choose the model you want to use
api_key=SecretStr(os.environ.get("OPENAI_API_KEY")),
)
return Agent(
task=task,
llm=llm,
browser=browser,
)メイン関数の作成
すべてをまとめるメイン関数は次のとおりです。
async def main():
load_dotenv()
browser = await setup_browser()
await browser.start()
agent = await setup_agent(browser)
result = await agent.run()
print(result)
await browser.kill()
asyncio.run(main())スクリプトの実行
スクリプトを実行します。
python run main.pyScrapelessダッシュボードでScrapelessセッションが開始されます。
完全なコード
from dotenv import load_dotenv
import os
import asyncio
from urllib.parse import urlencode
from browser_use import Agent, Browser, ChatOpenAI
from pydantic import SecretStr
task = "Go to Google, search for 'Scrapeless', click on the first post and return to the title"
async def setup_browser() -> Browser:
scrapeless_base_url = "wss://browser.scrapeless.com/api/v2/browser"
query_params = {
"token": os.environ.get("SCRAPELESS_API_KEY"),
"sessionTTL": 900,
"proxyCountry": "ANY"
}
browser_ws_endpoint = f"{scrapeless_base_url}?{urlencode(query_params)}"
browser = Browser(cdp_url=browser_ws_endpoint)
return browser
async def setup_agent(browser: Browser) -> Agent:
llm = ChatOpenAI(
model="gpt-4o", # Or choose the model you want to use
api_key=SecretStr(os.environ.get("OPENAI_API_KEY")),
)
return Agent(
task=task,
llm=llm,
browser=browser,
)
async def main():
load_dotenv()
browser = await setup_browser()
await browser.start()
agent = await setup_agent(browser)
result = await agent.run()
print(result)
await browser.kill()
asyncio.run(main())💡Browser Useは現在、Pythonのみをサポートしています。
💡ライブセッションのURLをコピーして、セッションの進行状況をリアルタイムで確認できます。また、セッション履歴でセッションの再生を見ることができます。