首页 > 编程语言 >python网络爬虫——对股票数据并分析

python网络爬虫——对股票数据并分析

时间:2022-12-20 19:11:50浏览次数:47  
标签:re python 爬虫 网络 获取 response 对应 页面

Python网络爬虫课程设计

一:选题的背景

根据数据挖掘和数据量化分析方法,知道股票数据的跨度和周期,就可以知道应该选择什么股票了。因此,我们需要通过数据挖掘和数据量化分析的方法,找到其周期和规律,从而实现最大获益。分析股票规律、掌握股票投资可以促进中国社会经济发展,激发全民、全社会对股票的热情,提升中国股市规模与技术水平。

本次实验通过爬虫爬取东方财务网深圳A股的数据(该数据公开且允许爬虫获取),其网页中的数据如图所示。通过怕去到的股票数据通过后续的数据清洗与数据分析对深圳A股的评估去理解股票市场的一些规则和规律。

二:网络爬虫的设计方案

爬虫可分为:通用爬虫,主题爬虫,增量爬虫。其中通用网络爬虫所爬取的目标数据是巨大的,并且爬行的范围也是非常大的,正是由于其爬取的数据是海量数据,故而对于这类爬虫来说,其爬取的性能要求是非常高的。主要应用于大型搜索引擎中,有非常高的应用价值,但是通用爬虫需要遵守robots协议。

主题爬虫(也叫聚焦爬虫):是面向特定需求的一种网络爬虫程序。聚焦爬虫拥有一个控制中心,负责对整个爬虫系统进行管理和监控,主要包括控制用户交互,初始化爬行器,确定主题,协调各模块之间的工作,爬行过程等。它是有选择的进行网页爬取,通用爬虫的目标是全网的资源,但是聚焦爬虫爬取的是一开始就选择好的主题内容,可以很好的节省了网络资源,由于保存的页面数量少所以更新速度很快,可以为某一类特殊人群提供服务,它主要是用于特定信息的爬取。本文就是实现对东方财富网中深圳A股总共244页的内容进行爬取。

增量式爬虫:它爬取的是网页上已经更新过的内容,没有更新或者是没有改变的内容就不爬取。通用的商业搜索引擎就是属于这类的,

总的来说。通用爬虫是搜索引擎的爬虫,是搜索引擎的重要组成部分,采用的是优先爬取有深度优先爬行策略;聚焦爬虫针对特定网站的爬虫,如本文就是实现对东方财富网中深圳A股总共244页的内容进行爬取;增量式爬虫,主要商用。

主题爬虫,又称聚焦爬虫,作为“面向特定主题”的一种网络爬虫程序。它的难点主要有以下两点:

(一)主题相关度计算:即计算当前已经抓下来的页面的主题相关程度。对主题相关度超过某一规定阈值的,即与主题相关的网页,将其保存到网页库;不相关的,则抛弃不管。

(二)主题相关度预测:主题相关度预测是针对待抓URL的。也就是我们在分析当前已下载网页时所分离出来的哪些URLS。我们要通过计算它们的主题预测值来决定接下来是否对该URL所对应的网页进行抓取。

在本文的实现中我们的技术方案总的来说就是实现对获取页面中的数据进行分析与解析,然后通过整个数据中选出自己需要的股票的代码,名称,最新价,涨跌幅,涨跌额,成交量,成交额,振幅,最高,最低,今开,昨收,量比,换手率,市盈率(动态),市净率这些参数,对最终爬取的数据做本地化保存与后续分析。

三:主题页面的结构特征分析

在本次实验中我们选择Chrome浏览器对页面进行分析,首先打开待爬取页面的地址(http://quote.eastmoney.com/center/gridlist.html?st=ChangePercent&sr=-1#sz_a_board)然后打开Chrome浏览器的检查功能如图所示:

对这些数据进行精细定位的结果如图所示:可以发现所有数据都被规律的存放在<tbody>节点中。

而在<tbody>节点中,股票的代码,名称,最新价,涨跌幅,涨跌额,成交量,成交额,振幅,最高,最低,今开,昨收,量比,换手率,市盈率(动态),市净率均被十分规范的存放在<td>节点中。

 

四:爬虫程序设计

 

我们利用Network按下crtl+R,抓包同时搜索关键词得到的结果如图,最终定位到存储所有数据的数据位置。

 

获取对应的Headers,Cookies如图所示:这些数据最终要放入程序中。

 

同时根据这个文件,我们得到了一行URL,其地址为http://25.push2.eastmoney.com/api/qt/clist/get?cb=jQuery112404670757982793552_1670953918289&pn=1&pz=20&po=1&np=1&ut=bd1d9ddb04089700cf9c27f6f7426281&fltt=2&invt=2&wbp2u=|0|0|0|web&fid=f3&fs=m:0+t:6,m:0+t:80&fields=f1,f2,f3,f4,f5,f6,f7,f8,f9,f10,f12,f13,f14,f15,f16,f17,f18,f20,f21,f23,f24,f25,f22,f11,f62,f128,f136,f115,f152&_=1670953918290。

 

访问该URL最后得到的界面如图所示,可以发现数据均存放在该页面中,从而完成数据解析,准备利用爬虫对其进行爬取。

首先我们导入相关库:本实验主要用到requests、re、pandas、matplotlib四个库实现爬虫与数据分析。

# 导入requests库
import requests

# 导入正则表达式所需要用到的库re
import re

# 导入数据分析所用到的库pandas
import pandas as pd

  配置cookie信息和头文件相关程序如下:

# 写入cookie信息
cookies = {
    # 即为页面中分析时'qgqp_b_id'对应的值
    'qgqp_b_id': '02d480cce140d4a420a0df6b307a945c',

    # 即为页面中分析时'cowCookie'对应的值
    'cowCookie': 'true',

    # 即为页面中分析时'em_hq_fls'对应的值
    'em_hq_fls': 'js',

    # 即为页面中分析时'intellpositionL'对应的值
    'intellpositionL': '1168.61px',

    # 即为页面中分析时'HAList'对应的值
    'HAList': 'a-sz-300059-%u4E1C%u65B9%u8D22%u5BCC%2Ca-sz-000001-%u5E73%u5B89%u94F6%u884C',

    # 即为页面中分析时'st_si'对应的值
    'st_si': '07441051579204',

    # 即为页面中分析时'st_asi'对应的值
    'st_asi': 'delete',

    # 即为页面中分析时'st_pvi'对应的值
    'st_pvi': '34234318767565',

    # 即为页面中分析时'st_sp'对应的值
    'st_sp': '2021-09-28%2010%3A43%3A13',

    # 即为页面中分析时'st_inirUrls'对应的值
    'st_inirUrl': 'http%3A%2F%2Fdata.eastmoney.com%2F',

    # 即为页面中分析时'st_sn'对应的值
    'st_sn': '31',

    # 即为页面中分析时'st_psi'对应的值
    'st_psi': '20211020210419860-113300300813-5631892871',

    # 即为页面中分析时'intellpositionT'对应的值
    'intellpositionT': '1007.88px',
}
# 对当前页数发送请求
        response = requests.get('http://67.push2.eastmoney.com/api/qt/clist/get', headers=headers, params=params,
                                cookies=cookies, verify=False)

  对该URL发送请求与获得的结果如下图所示,由于Pycharm无法显示全部信息,本文只截取的一部分,但仍然可以打印信息与发现即本文所解析页面的内容完全一致。

# 配置头文件
headers = {

    # 即为页面中分析时'Connection'对应的值
    'Connection': 'keep-alive',

    # 即为页面中分析时'User-Agent'对应的值
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.81 Safari/537.36 Edg/94.0.992.50',

    # 即为页面中分析时'DNT'对应的值
    'DNT': '1',

    # 即为页面中分析时'Accept'对应的值
    'Accept': '*/*',

    # 即为页面中分析时'Referer'对应的值
    'Referer': 'http://quote.eastmoney.com/',

    # 即为页面中分析时'Accept-Language'对应的值
    'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6',
}

  

# 总共爬取网页上244页的内容
for page in range(1,244):

        params = (

            # 解析到的URL中对应的cb参数
            ('cb', 'jQuery1124031167968836399784_1615878909521'),

            # 解析到的URL中对应的pn参数
            ('pn', str(page)),

            # 解析到的URL中对应的pz参数
            ('pz', '20'),

            # 解析到的URL中对应的po参数
            ('po', '1'),

            # 解析到的URL中对应的np参数
            ('np', '1'),

            # 解析到的URL中对应的ut参数
            ('ut', 'bd1d9ddb04089700cf9c27f6f7426281'),

            # 解析到的URL中对应的fltt参数
            ('fltt', '2'),

            # 解析到的URL中对应的invt参数
            ('invt', '2'),

            # 解析到的URL中对应的fid参数
            ('fid', 'f3'),

            # 解析到的URL中对应的fs参数
            ('fs', 'm:0 t:6,m:0 t:80,m:1 t:2,m:1 t:23,m:0 t:81 s:2048'),

            # 解析到的URL中对应的fields参数
            ('fields', 'f1,f2,f3,f4,f5,f6,f7,f8,f9,f10,f12,f13,f14,f15,f16,f17,f18,f20,f21,f23,f24,f25,f22,f11,f62,f128,f136,f115,f152'),
        )

  通过正则表达式实现对其正确检测,并获取对应内容:

 # 获取股票代码
        daimas = re.findall('"f12":(.*?),', response.text)

        # 获取股票名称
        names = re.findall('"f14":"(.*?)"', response.text)

        # 获取最新价
        zuixinjias = re.findall('"f2":(.*?),', response.text)

        # 获取涨跌幅
        zhangdiefus = re.findall('"f3":(.*?),', response.text)

        # 获取涨跌额
        zhangdiees = re.findall('"f4":(.*?),', response.text)

        # 获取成交量
        chengjiaoliangs = re.findall('"f5":(.*?),', response.text)

        # 获取成交额
        chengjiaoes = re.findall('"f6":(.*?),', response.text)

        # 获取振幅
        zhenfus = re.findall('"f7":(.*?),', response.text)

        # 获取今日最高点
        zuigaos = re.findall('"f15":(.*?),', response.text)

        # 获取今日最低点
        zuidis = re.findall('"f16":(.*?),', response.text)

        # 获取今日开盘价格
        jinkais = re.findall('"f17":(.*?),', response.text)

        # 获取昨日收盘价格
        zuoshous = re.findall('"f18":(.*?),', response.text)

        # 获取量比
        liangbis = re.findall('"f10":(.*?),', response.text)

        # 获取换手率
        huanshoulvs = re.findall('"f8":(.*?),', response.text)

        # 获取市盈率
        shiyinglvs = re.findall('"f9":(.*?),', response.text)

        # 获取市净率
        shijinglvs = re.findall('"f23":(.*?),', response.text)

  将所有数据写入字典,为后续本地化存储,最终打印出字典中的信息如图所示:

    # 将不同股票信息写入字典
        for i in range(len(daimas)):

            dict = {
                # 获取对应股票代码
                "代码": daimas[i],

                # 获取对应股票名称
                "名称": names[i],

                # 获取对应股票最新价
                "最新价":zuixinjias[i],

                # 获取对应股票涨跌幅
                "涨跌幅":zhangdiefus[i],

                # 获取对应股票涨跌额
                "涨跌额":zhangdiees[i],

                # 获取对应股票成交量
                "成交量":chengjiaoliangs[i],

                # 获取对应股票成交额
                "成交额":chengjiaoes[i],

                # # 获取对应股票振幅
                "振幅":zhenfus[i],

                # 获取对应股票最高点
                "最高":zuigaos[i],

                # 获取对应股票最低点
                "最低":zuidis[i],

                # 获取对应股票开盘价格
                "今开":jinkais[i],

                # 获取对应股票昨日收盘价格
                "昨收":zuoshous[i],

                # 获取对应股票量比
                "量比":liangbis[i],

                # 获取对应股票最换手率
                "换手率":huanshoulvs[i],

                # 获取对应股票市盈率(动态)
                "市盈率(动态)":shiyinglvs[i],

                # 获取对应股票市净率
                "市净率":shijinglvs[i]
            }

            # 打印字典信息
            # print(dict)

  

最后利用pandas将所有的数据做本地化保存结果如图所示:

 

 

 

 

 

股票行业中最有用的值通常是股票的最新价和涨跌幅,为此,我们在数据清洗和处理的过程中选择涨幅最高的100支股票进行后续的分析。

 

对于涨幅最高的100支股票,我们按顺序做出了其最新价的折线变化,发现涨幅越高的股票价格越高。

 

最终利用numpy采用多项式曲线拟合拟合出来的换手率和涨幅的关系,从趋势可以看出,随着涨幅升高,换手率略微下降。

 

五:总结

 

通过本次图标的可视化结果我明白了在股票行业中随着涨幅升高,换手率略微下降同时涨幅越高的股票价格越高,该结论是合理且符合市场客观规律的,通过本次试验最终完成了既定目标,收获满满,同时也发现了自己的一些不足,后续会更加努力的学习编程和数据分析。

 

全部代码附上:

# 导入requests库
import requests

# 导入正则表达式所需要用到的库re
import re

# 导入数据分析所用到的库pandas
import pandas as pd

# 导入matplotlib
import matplotlib.pyplot as plt

# 利用time实现暂停打印信息
import time

# numpy
import numpy as np

# 写入cookie信息
cookies = {
    # 即为页面中分析时'qgqp_b_id'对应的值
    'qgqp_b_id': '02d480cce140d4a420a0df6b307a945c',

    # 即为页面中分析时'cowCookie'对应的值
    'cowCookie': 'true',

    # 即为页面中分析时'em_hq_fls'对应的值
    'em_hq_fls': 'js',

    # 即为页面中分析时'intellpositionL'对应的值
    'intellpositionL': '1168.61px',

    # 即为页面中分析时'HAList'对应的值
    'HAList': 'a-sz-300059-%u4E1C%u65B9%u8D22%u5BCC%2Ca-sz-000001-%u5E73%u5B89%u94F6%u884C',

    # 即为页面中分析时'st_si'对应的值
    'st_si': '07441051579204',

    # 即为页面中分析时'st_asi'对应的值
    'st_asi': 'delete',

    # 即为页面中分析时'st_pvi'对应的值
    'st_pvi': '34234318767565',

    # 即为页面中分析时'st_sp'对应的值
    'st_sp': '2021-09-28%2010%3A43%3A13',

    # 即为页面中分析时'st_inirUrls'对应的值
    'st_inirUrl': 'http%3A%2F%2Fdata.eastmoney.com%2F',

    # 即为页面中分析时'st_sn'对应的值
    'st_sn': '31',

    # 即为页面中分析时'st_psi'对应的值
    'st_psi': '20211020210419860-113300300813-5631892871',

    # 即为页面中分析时'intellpositionT'对应的值
    'intellpositionT': '1007.88px',
}

# 配置头文件
headers = {

    # 即为页面中分析时'Connection'对应的值
    'Connection': 'keep-alive',

    # 即为页面中分析时'User-Agent'对应的值
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.81 Safari/537.36 Edg/94.0.992.50',

    # 即为页面中分析时'DNT'对应的值
    'DNT': '1',

    # 即为页面中分析时'Accept'对应的值
    'Accept': '*/*',

    # 即为页面中分析时'Referer'对应的值
    'Referer': 'http://quote.eastmoney.com/',

    # 即为页面中分析时'Accept-Language'对应的值
    'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6',
}

# 所有信息等待存入放入列表
all_message = []

# 总共爬取网页上244页的内容
for page in range(1,244):

        params = (

            # 解析到的URL中对应的cb参数
            ('cb', 'jQuery1124031167968836399784_1615878909521'),

            # 解析到的URL中对应的pn参数
            ('pn', str(page)),

            # 解析到的URL中对应的pz参数
            ('pz', '20'),

            # 解析到的URL中对应的po参数
            ('po', '1'),

            # 解析到的URL中对应的np参数
            ('np', '1'),

            # 解析到的URL中对应的ut参数
            ('ut', 'bd1d9ddb04089700cf9c27f6f7426281'),

            # 解析到的URL中对应的fltt参数
            ('fltt', '2'),

            # 解析到的URL中对应的invt参数
            ('invt', '2'),

            # 解析到的URL中对应的fid参数
            ('fid', 'f3'),

            # 解析到的URL中对应的fs参数
            ('fs', 'm:0 t:6,m:0 t:80,m:1 t:2,m:1 t:23,m:0 t:81 s:2048'),

            # 解析到的URL中对应的fields参数
            ('fields', 'f1,f2,f3,f4,f5,f6,f7,f8,f9,f10,f12,f13,f14,f15,f16,f17,f18,f20,f21,f23,f24,f25,f22,f11,f62,f128,f136,f115,f152'),
        )

        # 对当前页数发送请求
        response = requests.get('http://67.push2.eastmoney.com/api/qt/clist/get', headers=headers, params=params,
                                cookies=cookies, verify=False)

        # 打印请求结果
        # print(response.text)

        # time.sleep(100)

        # 获取股票代码
        daimas = re.findall('"f12":(.*?),', response.text)

        # 获取股票名称
        names = re.findall('"f14":"(.*?)"', response.text)

        # 获取最新价
        zuixinjias = re.findall('"f2":(.*?),', response.text)

        # 获取涨跌幅
        zhangdiefus = re.findall('"f3":(.*?),', response.text)

        # 获取涨跌额
        zhangdiees = re.findall('"f4":(.*?),', response.text)

        # 获取成交量
        chengjiaoliangs = re.findall('"f5":(.*?),', response.text)

        # 获取成交额
        chengjiaoes = re.findall('"f6":(.*?),', response.text)

        # 获取振幅
        zhenfus = re.findall('"f7":(.*?),', response.text)

        # 获取今日最高点
        zuigaos = re.findall('"f15":(.*?),', response.text)

        # 获取今日最低点
        zuidis = re.findall('"f16":(.*?),', response.text)

        # 获取今日开盘价格
        jinkais = re.findall('"f17":(.*?),', response.text)

        # 获取昨日收盘价格
        zuoshous = re.findall('"f18":(.*?),', response.text)

        # 获取量比
        liangbis = re.findall('"f10":(.*?),', response.text)

        # 获取换手率
        huanshoulvs = re.findall('"f8":(.*?),', response.text)

        # 获取市盈率
        shiyinglvs = re.findall('"f9":(.*?),', response.text)

        # 获取市净率
        shijinglvs = re.findall('"f23":(.*?),', response.text)

        # 将不同股票信息写入字典
        for i in range(len(daimas)):

            dict = {
                # 获取对应股票代码
                "代码": daimas[i],

                # 获取对应股票名称
                "名称": names[i],

                # 获取对应股票最新价
                "最新价":zuixinjias[i],

                # 获取对应股票涨跌幅
                "涨跌幅":zhangdiefus[i],

                # 获取对应股票涨跌额
                "涨跌额":zhangdiees[i],

                # 获取对应股票成交量
                "成交量":chengjiaoliangs[i],

                # 获取对应股票成交额
                "成交额":chengjiaoes[i],

                # # 获取对应股票振幅
                "振幅":zhenfus[i],

                # 获取对应股票最高点
                "最高":zuigaos[i],

                # 获取对应股票最低点
                "最低":zuidis[i],

                # 获取对应股票开盘价格
                "今开":jinkais[i],

                # 获取对应股票昨日收盘价格
                "昨收":zuoshous[i],

                # 获取对应股票量比
                "量比":liangbis[i],

                # 获取对应股票最换手率
                "换手率":huanshoulvs[i],

                # 获取对应股票市盈率(动态)
                "市盈率(动态)":shiyinglvs[i],

                # 获取对应股票市净率
                "市净率":shijinglvs[i]
            }

            # 打印字典信息
            # print(dict)

            # 把一支股票的所有信息以字典的形式存入列表
            all_message.append(dict)

# 打印所有股票构成的列表
# print(all_message)

# 将其存储为pandas格式
result_pd = pd.DataFrame(all_message)

# 做本地化保存
result_pd.to_csv("东方财富.csv")


# 数据清洗和处理时我们选择涨幅最高的100支股票进行后续分析

# 读取本地CSV
df = pd.read_csv("东方财富_photo.csv")

# 根据涨幅进行排序
df_sort = df.sort_values(by='涨跌幅', ascending=False)

# # 打印排序结果
# print(df_sort)
#
# # 打印排序后原始数据长度
# print(len(df_sort))

# 对排序后的数据取前100行
new_df = df_sort.head(100)

# # 打印原始数据清洗与筛选后的
# print(df_sort)
#
# # 打印筛选后的长度
# print(len(new_df))

# 画图
# 主要利用matplotlib和pandas自带的画图功能

# 绘制涨幅最高的100支股票最新价折线图
pd_cje = new_df['最新价'].tolist()

# 打印结果
# print(pd_cje)

# 打印是否转换成列表
# print(type(pd_cje))

# 设置x刻度
my_x_ticks = np.arange(0, 101, 5)

# 设置y刻度
my_y_ticks = np.arange(0, 101, 5)

# 配置x刻度
plt.xticks(my_x_ticks)

# 配置y刻度
plt.yticks(my_y_ticks)

# 画图
plt.plot(range(len(pd_cje)), pd_cje)

# 展示
plt.show()



# 绘制散点图并拟合
my_y = new_df['换手率'].tolist()

my_x = [i for i in range(len(my_y))]


# 用4次多项式拟合
z1 = np.polyfit(my_x, my_y, 4)
p1 = np.poly1d(z1)

# 也可以使用yvals=np.polyval(z1,x)
yvals=p1(my_x)

# 绘制散点和曲线
plot1=plt.plot(my_x, my_y, '*',label='original values')
plot2=plt.plot(my_x, yvals, 'r',label='polyfit values')

# 图标
plt.xlabel('x axis')
plt.ylabel('y axis')

# 标题
plt.title('polyfitting')

# 展示
plt.show()

  

 

 

 

 

 

 

 

 

 

 

同时根据这个文件,我们得到了一行URL,其地址为http://25.push2.eastmoney.com/api/qt/clist/get?cb=jQuery112404670757982793552_1670953918289&pn=1&pz=20&po=1&np=1&ut=bd1d9ddb04089700cf9c27f6f7426281&fltt=2&invt=2&wbp2u=|0|0|0|web&fid=f3&fs=m:0+t:6,m:0+t:80&fields=f1,f2,f3,f4,f5,f6,f7,f8,f9,f10,f12,f13,f14,f15,f16,f17,f18,f20,f21,f23,f24,f25,f22,f11,f62,f128,f136,f115,f152&_=1670953918290。四:爬虫程序设计

我们利用Network按下crtl+R,抓包同时搜索关键词得到的结果如图,最终定位到存储所有数据的数据位置。对这些数据进行精细定位的结果如图所示:可以发现所有数据都被规律的存放在<tbody>节点中。

而在<tbody>节点中,股票的代码,名称,最新价,涨跌幅,涨跌额,成交量,成交额,振幅,最高,最低,今开,昨收,量比,换手率,市盈率(动态),市净率均被十分规范的存放在<td>节点中。

 

四:爬虫程序设计

我们利用Network按下crtl+R,抓包同时搜索关键词得到的结果如图,最终定位到存储所有数据的数据位置。

获取对应的Headers,Cookies如图所示:这些数据最终要放入程序中。

 

同时根据这个文件,我们得到了一行URL,其地址为http://25.push2.eastmoney.com/api/qt/clist/get?cb=jQuery112404670757982793552_1670953918289&pn=1&pz=20&po=1&np=1&ut=bd1d9ddb04089700cf9c27f6f7426281&fltt=2&invt=2&wbp2u=|0|0|0|web&fid=f3&fs=m:0+t:6,m:0+t:80&fields=f1,f2,f3,f4,f5,f6,f7,f8,f9,f10,f12,f13,f14,f15,f16,f17,f18,f20,f21,f23,f24,f25,f22,f11,f62,f128,f136,f115,f152&_=1670953918290。

访问该URL最后得到的界面如图所示,可以发现数据均存放在该页面中,从而完成数据解析,准备利用爬虫对其进行爬取。

首先我们导入相关库:本实验主要用到requests、re、pandas、matplotlib四个库实现爬虫与数据分析。

标签:re,python,爬虫,网络,获取,response,对应,页面
From: https://www.cnblogs.com/xiaoguangyuan/p/16994908.html

相关文章

  • Python-打印九九乘法口诀
    打印九九乘法口诀比较简单,代码如下所示:#-*-coding:utf-8-*-#for循环,其中range(1,10)取1~9之间的整数,不会取到10#range(1,10)相当于数学中的[1,10),取值范围是前闭......
  • Python-2个字典根据相同的id合并覆盖为一个字典
    a_list=[{'id':1,'value':11},{'id':2,'value':22},{'id':3,'value':33}]b_list=[{'id':1,'name':'a'},{'id':2,'name':'b......
  • VmWare安装Centos后配置net网络
    1:首先安装VmWare2:启动时在安装对应的Linux版本,网络就默认net即可3:都安装好了之后,注意有一个大坑,输入的账号密码都不能准确登录最后发现是linux默认的输入法没有启用电......
  • Python操作Excel(openpyxl)
    1.引入openpyxl库安装openpyxl库:pipinstallopenpyxl引入openpyxl库:fromopenpyxlimportload_worbook2.代码实现fromopenpyxlimportload_workbook#打开Excelw......
  • déce. 20 最短网络
    https://www.luogu.com.cn/problem/P1546一遍过#include<bits/stdc++.h>usingnamespacestd;#defineinRead()typedeflonglongll;intin{inti=0,f=1;ch......
  • TCP、UDP 网络编程
    TCP、UDP网络编程实验目的1.使用TCP进行套接字通信2.使用UDP进行套接字通信实验原理1.TCP2.UDP3.用到的API(1)intsocket(intdomain,inttype,intprotocol);根......
  • Python 使用 smtp ssl 模式 发送邮件与附件
     参考:    发送邮件简单入门(以qq邮箱,163邮箱为    Python3使用SMTP发送带附件邮件:​​​https://www.jb51.net/article/142231.htm​​还可以使......
  • 安装 Python 包时解决 Microsoft visual c++ 14.0 is required 问题
     参考:​​http://www.hongweipeng.com/index.php/archives/1532/​​ 在windows上安装scrapy时经常会遇到这个问题,安装其他组件也可能会遇到。但问题解决办法都是大致......
  • Python PyQt5 教程
     PyQt5教程 :http://code.py40.com/face 教程翻译自:​​http://zetcode.com/gui/pyqt5/​​ 【第一节】PyQt5简介:​​http://code.py40.com/1948.html​​​【第二节】P......
  • Python GUI 开发工具
     PythonTkinter教程(GUI图形界面开发教程):​​http://c.biancheng.net/python/tkinter/​​PyQt5教程:​​http://code.py40.com/face​​ 作为 Pyhon 开发者,我们迟早都会......