python爬虫使用协程——asyncio&aiohttp常用

asyncio

基本函数

async def f_coroutine(): pass

coroutine = f_coroutine() # 返回coroutine协程对象

执行协程

loop = asyncio.get_event_loop() # 创建事件循环

loop.run_until_complete(future=coroutine) # 将协程对象注册到事件循环中

task = loop.create_task(coro=coroutine) # 使用协程对象定义task任务对象

task = asyncio.ensure_future(coro_or_future=coroutine)  # 使用协程对象定义task任务对象

loop.run_until_complete(future=task) # 将task对象注册到事件循环中

tasks = []

coroutines = asyncio.wait(fs=tasks) # 使用多个task对象组成的列表来定义协程对象

loop.run_until_complete(future=coroutines) # 将协程对象注册到事件循环中

async def f_coroutine():
    await asyncio.gather(*tasks) # 执行task列表中的任务,返回结果组成的列表

扫描二维码关注公众号,回复: 17426772 查看本文章

获取task返回结果

task.result() # task对象执行结果

def f_callback(task): pass

task.add_done_callback(fn=f_callback) # 协程对象执行完毕后,执行callback回调方法

控制最大并发量

from asyncio import Semaphore

semaphore = Semaphore(value='int') # 最大并发量

async def f_coroutine():
    async with semaphore: # 并发限制
        pass

aiohttp

基本函数

from aiohttp import ClientSession

async def f_get():

    async with ClientSession() as session:

        response = await session.get(url='') # GET请求

        response = await session.get(url='', proxy='') # 网络代理,socks代理需借助‘aiohttp-socks’包进行设置

        response.status # 响应状态码

        response.headers # 响应头

        await response.text() # 响应体

        await response.read() # 响应体二进制内容

        await response.json() # 响应体json结果

超时参数设置

from aiohttp import ClientTimeout

timeout = ClientTimeout(total='float') # 响应超时时间

from aiohttp import ClientSession

ClientSession(timeout=timeout) # 响应超时参数

猜你喜欢

转载自blog.csdn.net/guanxxx/article/details/138677326