首页 > 其他分享 >爬虫-aiohttp

爬虫-aiohttp

时间:2022-11-13 15:00:17浏览次数:60  
标签:__ aiohttp get url text 爬虫 time

 

# -*- coding:utf-8 -*-
import requests
import asyncio
import time
import aiohttp
'''
- aiohttp
    - 是一个支持异步的网络请求模块
    - pip install aiohttp
requests模块不支持异步
'''

urls = ['http://localhost:5000/bobo','http://localhost:5000/tom','http://localhost:5000/jay',]
# async def get_request(url):
#     #requests是一个不支持异步的模块
#     page_text = requests.get(url).text
#     return page_text

async def get_request(url):
    #实例化好一个请求对象
    async with aiohttp.ClientSession() as sess:
        #调用get发起请求,返回一个响应对象
        #get/post(url,headers,params/data,prosy="http://ip:port")
        async with await sess.get(url=url) as response:
            #text()获取了字符串形式的响应数据
            #read()获取byte类型的响应数据
            page_text = await response.text()
            return page_text

if __name__ == "__main__":
    start = time.time()
    tasks = []
    for url in urls:
        c = get_request(url)
        task = asyncio.ensure_future(c)
        tasks.append(task)
    loop = asyncio.get_event_loop()
    loop.run_until_complete(asyncio.wait(tasks))
    print('总耗时: ',time.time()-start)

 

标签:__,aiohttp,get,url,text,爬虫,time
From: https://www.cnblogs.com/colin88/p/16885972.html

相关文章

  • Python爬虫的scrapy框架的简单应用
    load_mzitu\mzitu\​​item.py​​#-*-coding:utf-8-*-#Defineherethemodelsforyourscrapeditems##Seedocumentationin:#http://doc.scrapy.org/en/latest/......
  • 【Python爬虫案例】用python爬哔哩哔哩搜索结果
    一、爬取目标大家好,我是@马哥python说,一名10年程序猿。今天分享一期爬虫的案例,用python爬哔哩哔哩的搜索结果,也就是这个页面:爬取字段,包含:页码,视频标题,视频作者,......
  • 第九期|不是吧,我在社交媒体的照片也会被网络爬虫?
    顶象防御云业务安全情报中心监测到,某社交媒体平台遭遇持续性的恶意爬虫盗取。被批量盗取用户信息和原创内容,经分类梳理和初步加工后,被黑灰产转售给竞争对手或直接用于恶意......
  • 关联规则APRIORI挖掘豆瓣读书评论爬虫采集数据与可视化
    豆瓣读书是豆瓣网的一个子版块。本文数据来源于豆瓣读书网站,分析内容将基于豆瓣读书的图书评分和评论信息。主题将紧紧围绕以下几点:有哪些书籍值得推荐?一般书籍的价格是多......
  • Python 爬虫之lxml
    网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、......
  • 爬虫的基本框架
    """-*-coding:utf-8-*-@Author:XiongShuai@Time:2022/11/123:53@File:.py"""importrequestsasrqimporttimestr_url="http://www.baidu.com"#http协议的解......
  • 利用豆瓣爬虫构建推理小说关键字推荐器
    推理小说推荐器原理图书条目利用爬虫爬取豆瓣图书信息,书名、作者、出版社、评分等区分推理小说利用相关推荐的栏目来爬取,大概率都是推理小说要是爬出范围就手动调节......
  • 爬虫-破译百度翻译
    爬取一整张页面的局部数据抓取ajkx包这一步出现了一些问题,和老师的不一样,直接输入没有sug包,但是一个一个字母输入可以得到sug包 代码如下:importrequestsimportjs......
  • Python 爬虫之Beautiful Soup
    网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、......
  • 最新抖音数据分析app爬虫
    我们提供封装好的抖音数据采集接口,实时采集,接口稳定。长期维护使用便宜接口使用详情请参考接口地址:github访问地址:github.com/ping0206guo…全部支持的接口如下,并且......