Browserガイドコストの最適化

コスト最適化

はじめに

Puppeteerを使用してデータスクレイピングを行う場合、トラフィック消費は重要な考慮事項です。特にプロキシサービスを使用する場合、トラフィックコストは大幅に増加する可能性があります。トラフィック使用量を最適化するために、次の戦略を採用できます。

  1. リソースインターセプト: 不要なリソースリクエストをインターセプトすることで、トラフィック消費を削減します。
  2. リクエストURLインターセプト: URLの特性に基づいて特定のリクエストをインターセプトすることで、トラフィックをさらに削減します。
  3. モバイルデバイスのシミュレート: モバイルデバイスの設定を使用して、より軽量なページバージョンを取得します。
  4. 包括的な最適化: 上記の方法を組み合わせて、最良の結果を得ます。

最適化スキーム1:リソースインターセプト

リソースインターセプトの概要

Puppeteerでは、page.setRequestInterception(true)を使用して、ブラウザによって開始されたすべてのネットワークリクエストをキャプチャし、続行(request.continue()), 終了(request.abort()), またはレスポンスのカスタマイズ(request.respond()) を決定できます。

この方法は、帯域幅消費を大幅に削減でき、特にクロールスクリーンショットパフォーマンス最適化のシナリオに適しています。

インターセプト可能なリソースの種類と推奨事項

リソースの種類説明インターセプト後の影響推奨事項
image画像リソースJPG/PNG/GIF/WebP画像画像が表示されません⭐ 安全
fontフォントファイルTTF/WOFF/WOFF2フォントシステムデフォルトフォントが代わりに使用されます⭐ 安全
mediaメディアファイルビデオ/オーディオファイルメディアコンテンツを再生できません⭐ 安全
manifestWebアプリマニフェストPWA設定ファイルPWA機能が影響を受ける可能性があります⭐ 安全
prefetchプリフェッチリソース<link rel="prefetch">ページへの影響は最小限です⭐ 安全
stylesheetCSSスタイルシート外部CSSファイルページスタイルが失われ、レイアウトに影響を与える可能性があります⚠️ 注意
websocketWebSocketリアルタイム通信接続リアルタイム機能が無効になります⚠️ 注意
eventsourceサーバーセントイベントサーバプッシュデータプッシュ機能が無効になります⚠️ 注意
preflightCORSプリフライトリクエストOPTIONSリクエストクロスオリジンリクエストが失敗します⚠️ 注意
scriptJavaScriptスクリプト外部JSファイル動的機能が無効になり、SPAがレンダリングされない可能性があります❌ 避ける
xhrXHRリクエストAJAXデータリクエスト動的データを取得できません❌ 避ける
fetchFetchリクエスト最新のAJAXリクエスト動的データを取得できません❌ 避ける
documentメインドキュメントHTMLページ自体ページを読み込めません❌ 避ける

推奨レベルの説明:

  • 安全: インターセプトはデータスクレイピングやファーストスクリーンレンダリングにほとんど影響を与えません。デフォルトでブロックすることをお勧めします。
  • ⚠️ 注意: スタイル、リアルタイム機能、またはクロスオリジンリクエストを壊す可能性があります。ビジネス判断が必要です。
  • 避ける: SPA/動的サイトが正常にレンダリングまたはデータを取得できない可能性が高いため、これらのリソースが絶対に必要ない場合を除いて避けてください。

リソースインターセプトのサンプルコード

import { Scrapeless } from '@scrapeless-ai/sdk';
import puppeteer from 'puppeteer-core';
 
const client = new Scrapeless({ apiKey: 'API Key' });
 
const { browserWSEndpoint } = client.browser.create({
    session_name: 'sdk_test',
    session_ttl: 180,
    proxy_country: 'ANY',
    session_recording: true,
    fingerprint,
});
 
async function scrapeWithResourceBlocking(url) {
    const browser = await puppeteer.connect({
        browserWSEndpoint,
        defaultViewport: null
    });
    const page = await browser.newPage();
 
    // Enable request interception
    await page.setRequestInterception(true);
 
    // Define resource types to block
    const BLOCKED_TYPES = new Set([
        'image',
        'font',
        'media',
        'stylesheet',
    ]);
 
    // Intercept requests
    page.on('request', (request) => {
        if (BLOCKED_TYPES.has(request.resourceType())) {
            request.abort();
            console.log(`Blocked: ${request.resourceType()} - ${request.url().substring(0, 50)}...`);
        } else {
            request.continue();
        }
    });
 
    await page.goto(url, {waitUntil: 'domcontentloaded'});
 
    // Extract data
    const data = await page.evaluate(() => {
        return {
            title: document.title,
            content: document.body.innerText.substring(0, 1000)
        };
    });
 
    await browser.close();
    return data;
}
 
// Usage
scrapeWithResourceBlocking('https://www.scrapeless.com')
    .then(data => console.log('Scraping result:', data))
    .catch(error => console.error('Scraping failed:', error));

最適化スキーム2:リクエストURLインターセプト

リソースの種類によるインターセプトに加えて、URLの特性に基づいてより詳細なインターセプト制御を実行できます。これは、広告、分析スクリプト、その他の不要なサードパーティリクエストをブロックするのに特に効果的です。

URLインターセプト戦略

  1. ドメインによるインターセプト: 特定のドメインからのすべてのリクエストをブロックします
  2. パスによるインターセプト: 特定のパスからのリクエストをブロックします
  3. ファイルタイプによるインターセプト: 特定の拡張子を持つファイルをブロックします
  4. キーワードによるインターセプト: URLに特定のキーワードが含まれるリクエストをブロックします

一般的なインターセプト可能なURLパターン

URLパターン説明推奨事項
広告サービス広告ネットワークドメインad.doubleclick.net, googleadservices.com⭐ 安全
分析サービス統計と分析スクリプトgoogle-analytics.com, hotjar.com⭐ 安全
ソーシャルメディアプラグインソーシャル共有ボタンなどplatform.twitter.com, connect.facebook.net⭐ 安全
トラッキングピクセルユーザー行動を追跡するピクセルpixelbeacontrackerを含むURL⭐ 安全
大量のメディアファイル大量のビデオ、オーディオファイル.mp4.webm.mp3などの拡張子⭐ 安全
フォントサービスオンラインフォントサービスfonts.googleapis.com, use.typekit.net⭐ 安全
CDNリソース静的リソースCDNcdn.jsdelivr.net, unpkg.com⚠️ 注意

URLインターセプトのサンプルコード

import puppeteer from 'puppeteer-core';
import { Scrapeless } from '@scrapeless-ai/sdk';
import puppeteer from 'puppeteer-core';
 
const client = new Scrapeless({ apiKey: 'API Key' });
 
const { browserWSEndpoint } = client.browser.create({
    session_name: 'sdk_test',
    session_ttl: 180,
    proxy_country: 'ANY',
    session_recording: true,
    fingerprint,
});
 
async function scrapeWithUrlBlocking(url) {
    const browser = await puppeteer.connect({
        browserWSEndpoint,
        defaultViewport: null
    });
    const page = await browser.newPage();
 
    // Enable request interception
    await page.setRequestInterception(true);
 
    // Define domains and URL patterns to block
    const BLOCKED_DOMAINS = [
        'google-analytics.com',
        'googletagmanager.com',
        'doubleclick.net',
        'facebook.net',
        'twitter.com',
        'linkedin.com',
        'adservice.google.com',
    ];
 
    const BLOCKED_PATHS = [
        '/ads/',
        '/analytics/',
        '/pixel/',
        '/tracking/',
        '/stats/',
    ];
 
    // Intercept requests
    page.on('request', (request) => {
        const url = request.url();
 
        // Check domain
        if (BLOCKED_DOMAINS.some(domain => url.includes(domain))) {
            request.abort();
            console.log(`Blocked domain: ${url.substring(0, 50)}...`);
            return;
        }
 
        // Check path
        if (BLOCKED_PATHS.some(path => url.includes(path))) {
            request.abort();
            console.log(`Blocked path: ${url.substring(0, 50)}...`);
            return;
        }
 
        // Allow other requests
        request.continue();
    });
 
    await page.goto(url, {waitUntil: 'domcontentloaded'});
 
    // Extract data
    const data = await page.evaluate(() => {
        return {
            title: document.title,
            content: document.body.innerText.substring(0, 1000)
        };
    });
 
    await browser.close();
    return data;
}
 
// Usage
scrapeWithUrlBlocking('https://www.scrapeless.com')
    .then(data => console.log('Scraping result:', data))
    .catch(error => console.error('Scraping failed:', error));

最適化スキーム3:モバイルデバイスのシミュレート

モバイルデバイスをシミュレートすることは、モバイルウェブサイトは通常、より軽量なページコンテンツを提供するため、もう1つの効果的なトラフィック最適化戦略です。

モバイルデバイスシミュレーションの利点

  1. より軽量なページバージョン: 多くのウェブサイトは、モバイルデバイスに対してより簡潔なコンテンツを提供します
  2. より小さい画像リソース: モバイルバージョンは通常、より小さい画像を読み込みます
  3. 簡素化されたCSSとJavaScript: モバイルバージョンは通常、簡素化されたスタイルとスクリプトを使用します
  4. 広告と非コアコンテンツの削減: モバイルバージョンは、多くの場合、いくつかの非コア機能を削除します
  5. 適応型レスポンス: 小さな画面に最適化されたコンテンツレイアウトを取得します

モバイルデバイスシミュレーションの設定

いくつかの一般的に使用されるモバイルデバイスの設定パラメーターを以下に示します。

const iPhoneX = {
    viewport: {
        width: 375,
        height: 812,
        deviceScaleFactor: 3,
        isMobile: true,
        hasTouch: true,
        isLandscape: false
    }
};

または、puppeteerの組み込みメソッドを使用してモバイルデバイスをシミュレートします

import { KnownDevices } from 'puppeteer-core';
const iPhone = KnownDevices['iPhone 15 Pro'];
 
const browser = await puppeteer.launch();
const page = await browser.newPage();
await page.emulate(iPhone);

モバイルデバイスシミュレーションのサンプルコード

import puppeteer from 'puppeteer-core';
import { Scrapeless } from '@scrapeless-ai/sdk';
 
const client = new Scrapeless({ apiKey: 'API Key' });
 
const { browserWSEndpoint } = client.browser.create({
    session_name: 'sdk_test',
    session_ttl: 180,
    proxy_country: 'ANY',
    session_recording: true,
    fingerprint,
});
 
async function scrapeWithMobileEmulation(url) {
    const browser = await puppeteer.connect({
        browserWSEndpoint,
        defaultViewport: null
    });
 
    const page = await browser.newPage();
 
    // Set mobile device simulation
    const iPhone = KnownDevices['iPhone 15 Pro'];
    await page.emulate(iPhone);
 
    await page.goto(url, {waitUntil: 'domcontentloaded'});
    // Extract data
    const data = await page.evaluate(() => {
        return {
            title: document.title,
            content: document.body.innerText.substring(0, 1000)
        };
    });
 
    await browser.close();
    return data;
}
 
// Usage
scrapeWithMobileEmulation('https://www.scrapeless.com')
    .then(data => console.log('Scraping result:', data))
    .catch(error => console.error('Scraping failed:', error));

包括的な最適化例

すべての最適化スキームを組み合わせた包括的な例を次に示します。

import puppeteer, {KnownDevices} from 'puppeteer-core';
import { Scrapeless } from '@scrapeless-ai/sdk';
 
const client = new Scrapeless({ apiKey: 'API Key' });
 
const { browserWSEndpoint } = client.browser.create({
    session_name: 'sdk_test',
    session_ttl: 180,
    proxy_country: 'ANY',
    session_recording: true,
    fingerprint,
});
 
async function optimizedScraping(url) {
    console.log(`Starting optimized scraping: ${url}`);
 
    // Record traffic usage
    let totalBytesUsed = 0;
 
    const browser = await puppeteer.connect({
        browserWSEndpoint,
        defaultViewport: null
    });
 
    const page = await browser.newPage();
 
    // Set mobile device simulation
    const iPhone = KnownDevices['iPhone 15 Pro'];
    await page.emulate(iPhone);
 
    // Set request interception
    await page.setRequestInterception(true);
 
    // Define resource types to block
    const BLOCKED_TYPES = [
        'image',
        'media',
        'font'
    ];
 
    // Define domains to block
    const BLOCKED_DOMAINS = [
        'google-analytics.com',
        'googletagmanager.com',
        'facebook.net',
        'doubleclick.net',
        'adservice.google.com'
    ];
 
    // Define URL paths to block
    const BLOCKED_PATHS = [
        '/ads/',
        '/analytics/',
        '/tracking/'
    ];
 
    // Intercept requests
    page.on('request', (request) => {
        const url = request.url();
        const resourceType = request.resourceType();
 
        // Check resource type
        if (BLOCKED_TYPES.includes(resourceType)) {
            console.log(`Blocked resource type: ${resourceType} - ${url.substring(0, 50)}...`);
            request.abort();
            return;
        }
 
        // Check domain
        if (BLOCKED_DOMAINS.some(domain => url.includes(domain))) {
            console.log(`Blocked domain: ${url.substring(0, 50)}...`);
            request.abort();
            return;
        }
 
        // Check path
        if (BLOCKED_PATHS.some(path => url.includes(path))) {
            console.log(`Blocked path: ${url.substring(0, 50)}...`);
            request.abort();
            return;
        }
 
        // Allow other requests
        request.continue();
    });
 
    // Monitor network traffic
    page.on('response', async (response) => {
        const headers = response.headers();
        const contentLength = headers['content-length'] ? parseInt(headers['content-length'], 10) : 0;
        totalBytesUsed += contentLength;
    });
 
    await page.goto(url, {waitUntil: 'domcontentloaded'});
 
    // Simulate scrolling to trigger lazy-loading content
    await page.evaluate(() => {
        window.scrollBy(0, window.innerHeight);
    });
 
    await new Promise(resolve => setTimeout(resolve, 1000))
 
    // Extract data
    const data = await page.evaluate(() => {
        return {
            title: document.title,
            content: document.body.innerText.substring(0, 1000),
            links: Array.from(document.querySelectorAll('a')).slice(0, 10).map(a => ({
                text: a.innerText,
                href: a.href
            }))
        };
    });
 
    // Output traffic usage statistics
    console.log(`\nTraffic Usage Statistics:`);
    console.log(`Used: ${(totalBytesUsed / 1024 / 1024).toFixed(2)} MB`);
 
    await browser.close();
    return data;
}
 
// Usage
optimizedScraping('https://www.scrapeless.com')
    .then(data => console.log('Scraping complete:', data))
    .catch(error => console.error('Scraping failed:', error));

最適化の比較

最適化されたコードを包括的な例から削除して、最適化前後のトラフィックを比較してみます。最適化されていないサンプルコードを以下に示します。

import puppeteer from 'puppeteer-core';
import { Scrapeless } from '@scrapeless-ai/sdk';
 
const client = new Scrapeless({ apiKey: 'API Key' });
 
const { browserWSEndpoint } = client.browser.create({
    session_name: 'sdk_test',
    session_ttl: 180,
    proxy_country: 'ANY',
    session_recording: true,
    fingerprint,
});
 
async function unoptimizedScraping(url) {
  console.log(`Starting unoptimized scraping: ${url}`);
 
  // Record traffic usage
  let totalBytesUsed = 0;
 
  const browser = await puppeteer.connect({
    browserWSEndpoint,
    defaultViewport: null
  });
 
  const page = await browser.newPage();
 
  // Set request interception
  await page.setRequestInterception(true);
 
  // Intercept requests
  page.on('request', (request) => {
    request.continue();
  });
 
  // Monitor network traffic
  page.on('response', async (response) => {
    const headers = response.headers();
    const contentLength = headers['content-length'] ? parseInt(headers['content-length'], 10) : 0;
    totalBytesUsed += contentLength;
  });
 
  await page.goto(url, {waitUntil: 'domcontentloaded'});
 
  // Simulate scrolling to trigger lazy-loading content
  await page.evaluate(() => {
    window.scrollBy(0, window.innerHeight);
  });
 
  await new Promise(resolve => setTimeout(resolve, 1000))
 
  // Extract data
  const data = await page.evaluate(() => {
    return {
      title: document.title,
      content: document.body.innerText.substring(0, 1000),
      links: Array.from(document.querySelectorAll('a')).slice(0, 10).map(a => ({
        text: a.innerText,
        href: a.href
      }))
    };
  });
 
  // Output traffic usage statistics
  console.log(`\nTraffic Usage Statistics:`);
  console.log(`Used: ${(totalBytesUsed / 1024 / 1024).toFixed(2)} MB`);
 
  await browser.close();
  return data;
}
 
// Usage
unoptimizedScraping('https://www.scrapeless.com')
  .then(data => console.log('Scraping complete:', data))
  .catch(error => console.error('Scraping failed:', error));

非最適化コードの実行後、出力された情報からトラフィックの違いを直感的に確認できます。

シナリオ使用トラフィック (MB)削減率
非最適化6.03
最適化0.81約 86.6 %

上記の最適化手法を組み合わせることで、プロキシのトラフィック消費を大幅に削減し、スクレイピング効率を向上させ、必要なコアコンテンツの取得を確実に行うことができます。