Scraping BrowserIntegraçõesBrowser Use

Browser Use

O Uso do Navegador é um SDK de automação de navegador que usa capturas de tela para capturar o estado do navegador e ações para simular interações do usuário. Este capítulo apresentará como você pode facilmente usar o browser-use para executar tarefas de agente na Web com chamadas simples.

Obter a Chave de API do Scrapeless

Acesse a guia Configurações do Dashboard:

Em seguida, copie e defina as variáveis de ambiente SCRAPELESS_API_KEY em seu arquivo .env.

As variáveis de ambiente OPENAI_API_KEY em seu arquivo .env também são necessárias.

OPENAI_API_KEY=your-openai-api-key
SCRAPELESS_API_KEY=your-scrapeless-api-key

💡 Lembre-se de substituir a chave de API de exemplo pela sua chave de API real.

Instalar o Uso do Navegador

Com pip (Python>=3.11):

pip install browser-use

Para funcionalidade de memória (requer Python<3.13 devido à compatibilidade com PyTorch):

pip install "browser-use[memory]"

Configurar o Navegador e a Configuração do Agente

Aqui está como configurar o navegador e criar um agente de automação:

from dotenv import load_dotenv
import os
import asyncio
from urllib.parse import urlencode
from langchain_openai import ChatOpenAI
from browser_use import Agent, Browser, BrowserConfig
from pydantic import SecretStr
 
task = "Go to Google, search for 'Scrapeless', click on the first post and return to the title"
 
async def setup_browser() -> Browser:
    scrapeless_base_url = "wss://browser.scrapeless.com/browser"
    query_params = {
        "token": os.environ.get("SCRAPELESS_API_KEY"),
        "session_ttl": 180,
        "proxy_country": "ANY"
    }
    browser_ws_endpoint = f"{scrapeless_base_url}?{urlencode(query_params)}"
    config = BrowserConfig(cdp_url=browser_ws_endpoint)
    browser = Browser(config)
    return browser
 
async def setup_agent(browser: Browser) -> Agent:
    llm = ChatOpenAI(
        model="gpt-4o", # Or choose the model you want to use
        api_key=SecretStr(os.environ.get("OPENAI_API_KEY")),
    )
 
    return Agent(
        task=task,
        llm=llm,
        browser=browser,
    )

Criar a Função Principal

Aqui está a função principal que junta tudo:

async def main():
    load_dotenv()
    browser = await setup_browser()
    agent = await setup_agent(browser)
    result = await agent.run()
    print(result)
    await browser.close()
 
asyncio.run(main())

Executar seu script

Execute seu script:

python run main.py

Você deve ver sua sessão Scrapeless iniciar no Scrapeless Dashboard.

Código Completo

from dotenv import load_dotenv
import os
import asyncio
from urllib.parse import urlencode
from langchain_openai import ChatOpenAI
from browser_use import Agent, Browser, BrowserConfig
from pydantic import SecretStr
 
task = "Go to Google, search for 'Scrapeless', click on the first post and return to the title"
 
async def setup_browser() -> Browser:
    scrapeless_base_url = "wss://browser.scrapeless.com/browser"
    query_params = {
        "token": os.environ.get("SCRAPELESS_API_KEY"),
        "session_ttl": 180,
        "proxy_country": "ANY"
    }
    browser_ws_endpoint = f"{scrapeless_base_url}?{urlencode(query_params)}"
    config = BrowserConfig(cdp_url=browser_ws_endpoint)
    browser = Browser(config)
    return browser
 
async def setup_agent(browser: Browser) -> Agent:
    llm = ChatOpenAI(
        model="gpt-4o", # Or choose the model you want to use
        api_key=SecretStr(os.environ.get("OPENAI_API_KEY")),
    )
 
    return Agent(
        task=task,
        llm=llm,
        browser=browser,
    )
 
async def main():
    load_dotenv()
    browser = await setup_browser()
    agent = await setup_agent(browser)
    result = await agent.run()
    print(result)
    await browser.close()
 
asyncio.run(main())

💡O Uso do Navegador atualmente suporta apenas Python.

💡Você pode copiar a URL na sessão ao vivo para assistir ao progresso da sessão em tempo real, e você também pode assistir a uma reprodução da sessão no histórico de sessões.