Puppeteer
Scraping Browser fornece uma plataforma serverless de alto desempenho, projetada para simplificar o processo de extração de dados de sites dinâmicos. Por meio da integração perfeita com o Puppeteer, os desenvolvedores podem executar, gerenciar e monitorar navegadores headless sem precisar de um servidor dedicado, permitindo automação da web e coleta de dados eficientes.
Instalando Bibliotecas Necessárias
Primeiro, instale puppeteer-core
, uma versão leve do Puppeteer projetada para conectar a instâncias de navegador existentes:
npm install puppeteer-core
Escrevendo Código para Conectar ao Scraping Browser
Em seu código Puppeteer, conecte-se ao Scraping Browser usando o seguinte:
const puppeteer = require('puppeteer-core');
const connectionURL = 'wss://browser.scrapeless.com/browser?token=APIKey&session_ttl=180&proxy_country=ANY';
(async () => {
const browser = await puppeteer.connect({browserWSEndpoint: connectionURL});
const page = await browser.newPage();
await page.goto('https://www.scrapeless.com');
console.log(await page.title());
await browser.close();
})();
Isso permite que você aproveite a infraestrutura do Scraping Browser, incluindo escalabilidade, rotação de IP e acesso global.
Exemplos Práticos
Aqui estão algumas operações comuns do Puppeteer após a integração do Scraping Browser:
- Navegação e Extração de Conteúdo da Página
const page = await browser.newPage();
await page.goto('https://www.example.com');
console.log(await page.title());
const html = await page.content();
console.log(html);
await browser.close();
- Tirando Capturas de Tela
const page = await browser.newPage();
await page.goto('https://www.example.com');
await page.screenshot({ path: 'example.png' });
console.log('Screenshot saved as example.png');
await browser.close();
- Executando Código Personalizado
const page = await browser.newPage();
await page.goto('https://www.example.com');
const result = await page.evaluate(() => document.title);
console.log('Page title:', result);
await browser.close();