python requests爬虫如何处理代理池

1034
2024/12/8 15:23:20
栏目: 编程语言
开发者测试专用服务器限时活动,0元免费领,库存有限,领完即止! 点击查看>>

在Python的requests库中,可以使用proxies参数来设置代理。如果你有一个代理池,可以通过循环遍历代理池中的每个代理并将其传递给proxies参数来实现。以下是一个简单的示例:

import requests

# 假设你有一个代理池
proxy_pool = [
    'http://proxy1.example.com:8080',
    'http://proxy2.example.com:8080',
    'http://proxy3.example.com:8080',
    # ...
]

def fetch_url(url, proxy):
    try:
        response = requests.get(url, proxies={"http": proxy, "https": proxy})
        response.raise_for_status()  # 如果响应状态码不是200,将抛出异常
        return response.text
    except requests.exceptions.RequestException as e:
        print(f"Error fetching {url} using proxy {proxy}: {e}")
        return None

# 使用代理池中的每个代理进行爬取
for proxy in proxy_pool:
    url = "http://example.com"
    content = fetch_url(url, proxy)
    if content:
        print(f"Fetched {url} using proxy {proxy}")

在这个示例中,我们定义了一个名为fetch_url的函数,该函数接受一个URL和一个代理作为参数。然后,我们使用requests.get()方法发送GET请求,并将代理传递给proxies参数。如果请求成功,函数返回响应的文本内容;否则,返回None。

接下来,我们遍历代理池中的每个代理,并使用fetch_url()函数进行爬取。如果请求成功,我们打印出获取到的内容。

辰迅云「云服务器」,即开即用、新一代英特尔至强铂金CPU、三副本存储NVMe SSD云盘,价格低至29元/月。点击查看>>

推荐阅读: python怎么将多个txt文件合并成一个