Browser MCP

Scrapeless Browser MCP Server conecta perfeitamente modelos como ChatGPT, Claude e ferramentas como Cursor e Windsurf a uma ampla gama de recursos externos, incluindo:

  • Automação de navegador para navegação e interação ao nível da página
  • Raspe sites dinâmicos e com muito JS—exporte como HTML, Markdown ou capturas de tela
Tipo de MCPPilha TecnológicaVantagensEcossistema PrincipalMelhor Para
Chrome DevTools MCPNode.js / PuppeteerPadrão oficial, robusto, ferramentas aprofundadas de análise de desempenho.Ampla (Gemini, Copilot, Cursor)Automação CI/CD, fluxos de trabalho entre IDEs e auditorias de desempenho aprofundadas.
Playwright MCPNode.js / PlaywrightUsa a árvore de acessibilidade em vez de pixels; determinístico e compatível com LLM sem visão.Ampla (VS Code, Copilot)Automação confiável e estruturada, menos propensa a quebras por pequenas alterações na interface do usuário.
Scrapeless Browser MCPServiço em NuvemConfiguração local zero, navegadores em nuvem escaláveis, lida com sites complexos e medidas anti-bot.Orientado por API (Qualquer cliente)Tarefas de automação em larga escala e paralelas, e interação com sites que possuem forte detecção de bots.

Ferramentas MCP Suportadas

NomeDescrição
browser_createCria ou reutiliza uma sessão de navegador em nuvem usando Scrapeless.
browser_closeFecha a sessão atual desconectando o navegador em nuvem.
browser_gotoNavega o navegador para uma URL especificada.
browser_go_backVolta um passo no histórico do navegador.
browser_go_forwardAvança um passo no histórico do navegador.
browser_clickClica em um elemento específico na página.
browser_typeDigita texto em um campo de entrada especificado.
browser_press_keySimula o pressionar de uma tecla.
browser_wait_forEspera por um elemento específico da página aparecer.
browser_waitPausa a execução por uma duração fixa.
browser_screenshotCaptura uma captura de tela da página atual.
browser_get_htmlObtém o HTML completo da página atual.
browser_get_textObtém todo o texto visível da página atual.
browser_scrollRola até o final da página.
browser_scroll_toRola um elemento específico para a visualização.
scrape_htmlRaspa uma URL e retorna seu conteúdo HTML completo.
scrape_markdownRaspa uma URL e retorna seu conteúdo como Markdown.
scrape_screenshotCaptura uma captura de tela de alta qualidade de qualquer página web.

Primeiros Passos

Obtenha Sua Chave de API Scrapeless

Faça login no Scrapeless e obtenha seu Token de API.

get-api-key.png

Configure Seu Cliente MCP

O Servidor MCP Scrapeless suporta ambos os modos de transporte Stdio e HTTP Transmitível.

🖥️ Stdio (Execução Local)

{
  "mcpServers": {
    "Scrapeless MCP Server": {
      "command": "npx",
      "args": ["-y", "scrapeless-mcp-server"],
      "env": {
        "SCRAPELESS_KEY": "YOUR_SCRAPELESS_KEY"
      }
    }
  }
}
 

🌐 HTTP Transmitível (Modo API Hospedado)

{
  "mcpServers": {
    "Scrapeless MCP Server": {
      "type": "streamable-http",
      "url": "https://api.scrapeless.com/mcp",
      "headers": {
        "x-api-token": "YOUR_SCRAPELESS_KEY"
      },
      "disabled": false,
      "alwaysAllow": []
    }
  }
}
 

Opções Avançadas

Personalize o comportamento da sessão do navegador com parâmetros opcionais. Estes podem ser definidos via variáveis de ambiente (para Stdio) ou cabeçalhos HTTP (para HTTP Transmitível):

Stdio (Variável de Ambiente)HTTP Transmitível (Cabeçalho HTTP)Descrição
BROWSER_PROFILE_IDx-browser-profile-idEspecifica um ID de perfil de navegador reutilizável para continuidade da sessão.
BROWSER_PROFILE_PERSISTx-browser-profile-persistHabilita armazenamento persistente para cookies, armazenamento local, etc.
BROWSER_SESSION_TTLx-browser-session-ttlDefine o tempo limite máximo da sessão em segundos. A sessão irá expirar automaticamente após esta duração de inatividade.

Casos de Uso

Raspagem da Web e Coleta de Dados

  • Monitoramento de E-commerce: Visite automaticamente páginas de produtos para coletar preços, status de estoque e descrições.
  • Pesquisa de Mercado: Raspe em lote notícias, avaliações ou páginas de empresas para análise e comparação.
  • Agregação de Conteúdo: Extraia conteúdo de página, posts e comentários para coleta centralizada.
  • Geração de Leads: Reúna informações de contato e detalhes da empresa de sites corporativos ou diretórios.

Testes e Garantia de Qualidade

  • Verificação de Função: Use cliques, digitação e esperas por elementos para garantir que as páginas se comportem como esperado.
  • Teste de Jornada do Usuário: Simule interações reais do usuário (digitar, clicar, rolar) para validar fluxos de trabalho.
  • Suporte a Testes de Regressão: Capture capturas de tela de páginas-chave e compare para detectar alterações na interface do usuário ou no conteúdo.

Automação de Tarefas e Fluxos de Trabalho

  • Preenchimento de Formulários: Preencha e envie automaticamente formulários web (por exemplo, registros, pesquisas).
  • Captura de Dados e Geração de Relatórios: Extraia periodicamente dados de páginas e salve como HTML ou capturas de tela para análise.
  • Tarefas Administrativas Simples: Automatize operações repetitivas de backend ou baseadas na web usando cliques e digitação simulados.

Demonstração

Caso 1: Automação de Interação Web e Extração de Dados com Claude

Usando o Browser MCP Server, Claude pode realizar operações web complexas—como navegação, cliques, rolagem e raspagem de dados—através de comandos conversacionais, com pré-visualização da execução em tempo real via sessões ao vivo.

browser-mcp-case-1.gif

Caso 2: Contornando o Cloudflare para Recuperar Conteúdo da Página Alvo

Usando o Browser MCP Server, páginas protegidas pelo Cloudflare são acessadas automaticamente e, após a conclusão, o conteúdo da página é extraído e retornado no formato Markdown.

browser-mcp-case-2.gif

Um Navegador em Nuvem, Integrações Infinitas

Chrome DevTools MCP, Playwright MCP e Scrapeless Browser MCP — compartilham uma base: todos se conectam ao Scrapeless Cloud Browser.

Ao contrário da automação de navegador local tradicional, o Scrapeless Browser é executado inteiramente na ****nuvem, oferecendo flexibilidade e escalabilidade incomparáveis para desenvolvedores e agentes de IA.

Aqui está o que o torna verdadeiramente poderoso:

  • Integração Perfeita: Totalmente compatível com Puppeteer, Playwright e CDP, permitindo migração sem esforço de projetos existentes com uma única linha de código.
  • Cobertura Global de IP: Acesso a pools de IP residenciais, de ISP e ilimitados em mais de 195 países, a uma taxa transparente e econômica ($0.6–1.8/GB). Perfeito para automação de dados web em larga escala.
  • Perfis Isolados: Cada tarefa é executada em um ambiente dedicado e persistente, garantindo isolamento de sessão, gerenciamento de múltiplas contas e estabilidade a longo prazo.
  • Escalonamento Concorrente Ilimitado: Inicie instantaneamente mais de 50–1000 instâncias de navegador com infraestrutura de autoescalonamento — sem configuração de servidor, sem gargalo de desempenho.
  • Nós de Borda em Todo o Mundo: Implante em múltiplos nós globais para latência ultrabaixa e inicialização 2–3 vezes mais rápida do que outros navegadores em nuvem.
  • Anti-Detecção: Soluções integradas para reCAPTCHA, Cloudflare Turnstile e AWS WAF, garantindo automação ininterrupta mesmo sob camadas de proteção rigorosas.
  • Depuração Visual: Obtenha depuração interativa humano-máquina e monitoramento de tráfego de proxy em tempo real via Live View. Reproduza sessões página por página através de Gravações de Sessão para identificar rapidamente problemas e otimizar operações.

Integrações

Claude Desktop

  1. Abra o Claude Desktop
  2. Navegue para: ConfiguraçõesFerramentasServidores MCP
  3. Clique em “Adicionar Servidor MCP”
  4. Cole a configuração Stdio ou HTTP Transmitível acima
  5. Salve e ative o servidor
  6. Claude agora será capaz de emitir consultas web, extrair conteúdo e interagir com páginas usando Scrapeless

Cursor IDE

  1. Abra o Cursor
  2. Pressione Cmd + Shift + P e procure por: Configurar Servidores MCP
  3. Adicione a configuração Scrapeless MCP usando o formato acima
  4. Salve o arquivo e reinicie o Cursor (se necessário)
  5. Agora você pode perguntar ao Cursor coisas como:
    1. "Procure no StackOverflow por uma solução para este erro"
    2. "Raspe o HTML desta página"
  6. E ele usará o Scrapeless em segundo plano.