🎯 カスタマイズ可能で検出回避型のクラウドブラウザ。自社開発のChromiumを搭載し、ウェブクローラーAIエージェント向けに設計されています。👉今すぐ試す
ブログに戻ります

Pythonで匿名リクエストのためにHTTPXとプロキシを使用する方法

Michael Lee
Michael Lee

Expert Network Defense Engineer

18-Dec-2025
さっと見てみましょう

Scrapeless Proxiesで自動化とスクレイピングを強化 — 高速、信頼性が高く、手頃な価格です。

HTTPXは、同期および非同期リクエストの両方をサポートする、モダンで機能豊富なHTTPクライアントです。ウェブスクレイピングや多数のAPIコールを行う際には、匿名性を維持しリクエストのボリュームを管理するためにプロキシの統合が重要です。HTTPXは、基本と認証されたセットアップをサポートし、プロキシの設定を簡単にします。

HTTPXでの基本的なプロキシ設定

HTTPXでは、プロトコル(http://またはhttps://)をプロキシURLにマッピングする辞書を使用してプロキシを定義できます。プロキシURLは標準の形式に従います: <PROTOCOL>://<IP_ADDRESS>:<PORT>

python Copy
import httpx

# プロキシ設定の定義
proxies = {
    "http://": "http://216.137.184.253:80",
    "https://": "http://216.137.184.253:80"
}

# 指定されたプロキシでリクエストを行う
try:
    r = httpx.get("https://httpbin.io/ip", proxies=proxies)
    print(f"レスポンスIP: {r.json().get('origin')}")
except httpx.ProxyError as e:
    print(f"プロキシ接続に失敗しました: {e}")

また、httpx.Clientインスタンスの初期化時にプロキシを設定することもでき、これは同じターゲットへの複数リクエストを行う際の推奨される方法です。

python Copy
import httpx

proxy_url = "http://216.137.184.253:80"

with httpx.Client(proxies=proxy_url) as client:
    r = client.get("https://httpbin.io/ip")
    print(f"レスポンスIP: {r.json().get('origin')}")

プロキシ認証の処理

ユーザー名とパスワードを必要とするプロキシの場合、HTTPXは資格情報をプロキシURLに直接埋め込むことをサポートしています。形式はhttp://<USERNAME>:<PASSWORD>@<IP_ADDRESS>:<PORT>です。

python Copy
import httpx

# 資格情報を埋め込んだプロキシURL
proxy_url = "http://<YOUR_USERNAME>:<YOUR_PASSWORD>@proxy.scrapeless.com:1337"

with httpx.Client(proxies=proxy_url) as client:
    r = client.get("https://httpbin.io/ip")
    print(f"レスポンスIP: {r.json().get('origin')}")

プロキシ回転の実装

検出を避け、高い成功率を維持するために、プロキシを回転させるべきです。これはプロキシエンドポイントのリストを維持し、各リクエストまたはセッションごとにランダムに1つを選択します。これは、堅牢なスクレイピングライブラリと組み合わせると特に効果的です。

python Copy
import httpx
import random

# プロキシURLのリスト(例:Scrapelessダッシュボードから)
proxy_urls = [
    "http://user:pass@proxy1.scrapeless.com:10000",
    "http://user:pass@proxy2.scrapeless.com:10001",
    "http://user:pass@proxy3.scrapeless.com:10002",
]

def make_proxied_request(url):
    # リクエストのためにランダムなプロキシを選択
    random_proxy = random.choice(proxy_urls)
    
    # クライアントのためにプロキシを設定
    proxies = {
        "http://": random_proxy,
        "https://": random_proxy
    }

    try:
        with httpx.Client(proxies=proxies, timeout=10.0) as client:
            response = client.get(url)
            response.raise_for_status()
            return response
    except httpx.RequestError as e:
        print(f"{url}をプロキシ{random_proxy}経由でリクエスト中にエラーが発生しました: {e}")
        return None

# 使用例
response = make_proxied_request("https://targetwebsite.com/data")
if response:
    print(f"ステータスコード: {response.status_code}でデータを正常にスクレイピングしました")

推奨プロキシソリューション: Scrapeless Proxies

HTTPXを用いた高ボリュームで非同期のスクレイピングには、信頼できるプロキシインフラが不可欠です。Scrapeless Proxiesは、ブロックされるリスクを最小限に抑える多様なIPのプールを提供し、パフォーマンスとステルス性を考慮して設計されています。彼らの住宅用および静的ISPプロキシは、Pythonベースのスクレイピングに特に効果的で、複雑なターゲットにアクセスするために必要な高い信頼レベルを提供します。

よくある質問 (FAQ)

Q: HTTPXはSOCKSプロキシをサポートしていますか?
A: はい、HTTPXはSOCKSプロキシをサポートしています。プロキシURLでSOCKSプロトコルを指定する必要があります。例えば:socks5://user:pass@ip:port [5]。

Q: 単純なhttpx.get()よりもhttpx.Clientを使用するメリットは何ですか?
A: httpx.Clientを使用すると、接続プールとセッション管理が可能になり、複数のリクエストを行う際により効率的です。また、そのクライアントセッション内で行うすべてのリクエストに対してプロキシなどのデフォルトのパラメータを設定できます。

Q: HTTPXでプロキシエラーを処理するにはどうすればよいですか?
A: HTTPXはネットワークの問題に対して特定の例外を発生させます。リクエストをtry...exceptブロックでラップし、httpx.ProxyErrorまたはより一般的なhttpx.RequestErrorをキャッチして、再試行のロジックを実装したり、別のプロキシに切り替えたりするべきです。

Copy

Scrapelessでは、適用される法律、規制、およびWebサイトのプライバシーポリシーを厳密に遵守しながら、公開されているデータのみにアクセスします。 このブログのコンテンツは、デモンストレーションのみを目的としており、違法または侵害の活動は含まれません。 このブログまたはサードパーティのリンクからの情報の使用に対するすべての責任を保証せず、放棄します。 スクレイピング活動に従事する前に、法律顧問に相談し、ターゲットウェブサイトの利用規約を確認するか、必要な許可を取得してください。

最も人気のある記事

カタログ