首页 > 编程语言 >火力全开,优化 python 量化日行情数据下载以及常用指标计算速度

火力全开,优化 python 量化日行情数据下载以及常用指标计算速度

时间:2022-12-04 23:11:11浏览次数:71  
标签:code python 计算速度 io time 全开 任务量 cpu pool

火力全开,优化 python 量化日行情数据下载以及常用指标计算速度

今天做了个异步协程的测试,结果有点失望,多进程 + 协程并没有提高 io 密集型任务请求的效率。至于为什么,原因暂时没找到,怀疑是协程的事件循环耗了时,或者是任务并没有构造出真正可等待对象。有知道的网络大神能否提下专业意见。

不过重构了日行情下载速度和常用指标计算速度,还是大大减少了时间的花销。日行情数据 5000 个股票,更新时间段是 2015-01-01 到 2022-12-02 ,从下载到完全插入到数据库大概 6 分钟左右。在这个 7 年的时间段内,常用指标计算并保存到数据库,即均线指标以及个股振幅指标 5、10、20、50、120、250,大概花费 2.5分钟左右。

为日后扩展其他指标打下基础,更新一次估计能控制在 10 分钟以内。

测试 io 密集型任务,cup 密集型任务

下面是测试代码和结果,从结果上看,io 密集型任务多进程的效率和多进程 + 协程的效率是差不多的。对于 cpu 密集型任务来说,多进程明显提高了效率。

可以尝试换事件循环 uvloop ,使用这个事件循环协程效率可提高,但 window 并不支持,所以这个步骤我没测试到。

测试代码:

import asyncio
import os
import time
from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor, wait

import akshare as ak
import pandas as pd

import config.stockconstant as sc


async def _task_io2():
    loop = asyncio.get_event_loop()
    future = loop.run_in_executor(None, ak.stock_zh_a_hist, '000001', 'daily', '20150101', '20221202', 'qfq')
    response = await future
    # print(f"请求回来了 {response.empty}")


async def _read_csw():
    return pd.read_csv(sc.config_path)


def _task_io():
    pd.read_csv(sc.config_path)


def _task_cpu():
    return sum(i * i for i in range(10 ** 5))


async def async_thread_pool(is_io, total, cpu_count):
    executor = ThreadPoolExecutor(cpu_count)
    loop = asyncio.get_event_loop()
    t1 = time.time()
    tt = [loop.run_in_executor(executor, _task_io if is_io else _task_cpu) for _ in range(total)]
    await asyncio.wait(tt)
    print(f'async_thread_pool  耗时:{time.time() - t1} 任务量:{total}  {"io 任务" if is_io else "cpu 任务"}')


async def async_process_pool(is_io, total, cpu_count):
    executor = ProcessPoolExecutor(cpu_count)
    loop = asyncio.get_event_loop()
    t1 = time.time()
    tt = [loop.run_in_executor(executor, _task_io if is_io else _task_cpu) for _ in range(total)]
    await asyncio.wait(tt)
    print(f'async_process_pool 耗时:{time.time() - t1} 任务量:{total}  {"io 任务" if is_io else "cpu 任务"}')


def thread_pool(is_io, total, cpu_count):
    executor = ThreadPoolExecutor(cpu_count)
    t1 = time.time()
    futures = [executor.submit(_task_io if is_io else _task_cpu) for _ in range(total)]
    wait(futures)
    print(f'thread_pool        耗时:{time.time() - t1} 任务量:{total}  {"io 任务" if is_io else "cpu 任务"}')


def process_pool(is_io, total, cpu_count):
    executor = ProcessPoolExecutor(cpu_count)
    t1 = time.time()
    futures = [executor.submit(_task_io if is_io else _task_cpu) for _ in range(total)]
    wait(futures)
    print(f'process_pool       耗时:{time.time() - t1} 任务量:{total}  {"io 任务" if is_io else "cpu 任务"}')


def main(total, cpu_count):
    print(f'cpu:{cpu_count} 个')
    asyncio.run(async_thread_pool(True, total, cpu_count))
    asyncio.run(async_process_pool(True, total, cpu_count))
    thread_pool(True, total, cpu_count)
    process_pool(True, total, cpu_count)

    print('--------------------------------------')

    asyncio.run(async_thread_pool(False, total, cpu_count))
    asyncio.run(async_process_pool(False, total, cpu_count))
    thread_pool(False, total, cpu_count)
    process_pool(False, total, cpu_count)
    print('=========================================')


def coroutine(total):
    t1 = time.time()
    tasks = [asyncio.ensure_future(_task_io2()) for _ in range(total)]
    loop = asyncio.get_event_loop()
    loop.run_until_complete(asyncio.wait(tasks))
    print(f'coroutine       耗时:{time.time() - t1} 任务量:{total}')


if __name__ == '__main__':
    total = 1000
    cpu_count = 1
    main(total, cpu_count)
    total = 10000
    main(total, cpu_count)

    total = 1000
    cpu_count = int(os.cpu_count() / 2)
    main(total, cpu_count)
    total = 10000
    main(total, cpu_count)

    cpu_count = int(os.cpu_count())
    total = 1000
    main(total, cpu_count)
    total = 10000
    main(total, cpu_count)

    # 修改成异步来执行
    cpu_count = int(os.cpu_count())
    start_time = time.time()
    pool = ProcessPoolExecutor()
    total = 5000
    futures = []
    for part in range(cpu_count):
        future = pool.submit(coroutine, int(total / cpu_count))
        futures.append(future)
    pool.shutdown(wait=True)
    print(f'5k 次股票请求耗时: {time.time() - start_time}')


结果:


cpu:1 个
async_thread_pool  耗时:8.617908000946045 任务量:1000  io 任务
async_process_pool 耗时:10.806799411773682 任务量:1000  io 任务
thread_pool        耗时:8.566416263580322 任务量:1000  io 任务
process_pool       耗时:10.714466333389282 任务量:1000  io 任务
--------------------------------------
async_thread_pool  耗时:16.213727474212646 任务量:1000  cpu 任务
async_process_pool 耗时:18.297339916229248 任务量:1000  cpu 任务
thread_pool        耗时:16.50342082977295 任务量:1000  cpu 任务
process_pool       耗时:18.00312089920044 任务量:1000  cpu 任务
=========================================
cpu:1 个
async_thread_pool  耗时:92.37166738510132 任务量:10000  io 任务
async_process_pool 耗时:101.25876951217651 任务量:10000  io 任务
thread_pool        耗时:86.62425088882446 任务量:10000  io 任务
process_pool       耗时:93.58890128135681 任务量:10000  io 任务
--------------------------------------
async_thread_pool  耗时:156.15055894851685 任务量:10000  cpu 任务
async_process_pool 耗时:157.71604180335999 任务量:10000  cpu 任务
thread_pool        耗时:154.52726674079895 任务量:10000  cpu 任务
process_pool       耗时:155.301522731781 任务量:10000  cpu 任务
=========================================
cpu:4 个
async_thread_pool  耗时:5.767933368682861 任务量:1000  io 任务
async_process_pool 耗时:4.886445999145508 任务量:1000  io 任务
thread_pool        耗时:5.5500757694244385 任务量:1000  io 任务
process_pool       耗时:4.64022421836853 任务量:1000  io 任务
--------------------------------------
async_thread_pool  耗时:15.328773975372314 任务量:1000  cpu 任务
async_process_pool 耗时:6.7509706020355225 任务量:1000  cpu 任务
thread_pool        耗时:15.10576057434082 任务量:1000  cpu 任务
process_pool       耗时:6.597245454788208 任务量:1000  cpu 任务
=========================================
cpu:4 个
async_thread_pool  耗时:56.77140545845032 任务量:10000  io 任务
async_process_pool 耗时:31.66841983795166 任务量:10000  io 任务
thread_pool        耗时:54.32371783256531 任务量:10000  io 任务
process_pool       耗时:30.22367548942566 任务量:10000  io 任务
--------------------------------------
async_thread_pool  耗时:153.32735443115234 任务量:10000  cpu 任务
async_process_pool 耗时:51.863539695739746 任务量:10000  cpu 任务
thread_pool        耗时:150.73832869529724 任务量:10000  cpu 任务
process_pool       耗时:51.08239006996155 任务量:10000  cpu 任务
=========================================
cpu:8 个
async_thread_pool  耗时:5.868973731994629 任务量:1000  io 任务
async_process_pool 耗时:4.749261856079102 任务量:1000  io 任务
thread_pool        耗时:5.750915765762329 任务量:1000  io 任务
process_pool       耗时:4.7755701541900635 任务量:1000  io 任务
--------------------------------------
async_thread_pool  耗时:15.485109329223633 任务量:1000  cpu 任务
async_process_pool 耗时:6.287221908569336 任务量:1000  cpu 任务
thread_pool        耗时:15.208913326263428 任务量:1000  cpu 任务
process_pool       耗时:6.2330849170684814 任务量:1000  cpu 任务
=========================================
cpu:8 个
async_thread_pool  耗时:58.56171226501465 任务量:10000  io 任务
async_process_pool 耗时:25.237155437469482 任务量:10000  io 任务
thread_pool        耗时:55.95446968078613 任务量:10000  io 任务
process_pool       耗时:24.77057647705078 任务量:10000  io 任务
--------------------------------------
async_thread_pool  耗时:153.94631671905518 任务量:10000  cpu 任务
async_process_pool 耗时:40.62843203544617 任务量:10000  cpu 任务
thread_pool        耗时:151.06180787086487 任务量:10000  cpu 任务
process_pool       耗时:38.96478891372681 任务量:10000  cpu 任务
=========================================


5k 次股票请求耗时: 351.0791549682617

Process finished with exit code 0

优化股票日行情数据请求速度

也没啥好说的,就是把日行情请求抽成任务函数,然后扔到进程池里面执行即可,这里要说下进程间内存并不共享,那么如何保存每个请求的结果呢?需要用 multiprocessing.Manager() 来构建对象,即进程可以共享这些对象。

核心代码如下,结果 5k 个股票请求时间 20150101 - 20221202 时间段,全部请求完毕并保存到数据库,大概 6 分钟左右。用多进程效果也是一致的,注释的代码就是使用多进程的。

def _update_daily_task(self, code, start_time,
                       end_time, except_code_list,
                       index, success_code_list):
    try:
        df = ak.stock_zh_a_hist(
            symbol=str(code),
            start_date=start_time,
            end_date=end_time,
            adjust="qfq")
    except:
        except_code_list.append(code)
        print("发生异常code ", code)
        return

    print('成功获取股票: index->{} {}日行情数据'.format(index, code)
          , ' 开始时间: {} 结束时间: {}'.format(start_time, end_time),
          f'数据是否为空:{df.empty}')
    if df.empty:
        success_code_list.append(code)
        return

        # 获取对应的子列集
    sub_df = df[['日期', '开盘', '最高', '最低', '收盘', '成交量', '成交额']]
    # net_df 的列名可能和数据库列名不一样,修改列名对应数据库的列名
    sub_df.columns = ['date', 'open', 'high', 'low', 'close', 'volume', 'amount']
    # 修改 index 为 date 去掉默认的 index 便于直接插入数据库
    sub_df.set_index(['date'], inplace=True)
    sub_df.insert(sub_df.shape[1], 'code', str(code))
    sdb.to_table(sub_df, "stock_daily_price")
    success_code_list.append(code)
    # print(sub_df)

async def update_daily_multi_io(self):
    """
    更新股票日行情数据
    东方财富日行情数据,沪深A股,先从本地配置获取股票代码,再获取日行情数据
    获取成功或失败,记录到本地数据,以便股票数据更新完整
    :return:
    """
    last_time = time.time()
    with multiprocessing.Manager() as MG:
        success_code_list = MG.list()
        except_code_list = MG.list()
        # 读取配置信息
        config_df = self.config.config_df
        if config_df.empty:
            print('配置信息错误,请检查...')
            return

        end_time = self.config.update_end_time()
        executor = ProcessPoolExecutor()
        futures = []
        loop = asyncio.get_event_loop()
        for index, row in config_df.iterrows():
            code = row['code']
            start_time = self.config.daily_start_time(code)

            if start_time == end_time:
                # 已经更新过了
                continue
            future = loop.run_in_executor(executor, self._update_daily_task,
                                          code, start_time,
                                          end_time, except_code_list,
                                          index, success_code_list)
            # future = executor.submit(self._update_daily_task,
            #                          code, start_time,
            #                          end_time, except_code_list,
            #                          index, success_code_list)
            futures.append(future)
        # wait(futures)
        if len(futures) > 0:
            await asyncio.wait(futures)

        # 更新配置信息
        for code in success_code_list:
            # 更新配置信息config_df
            config_df.loc[config_df['code'] == code, 'daily_update_time'] = end_time
            config_df.loc[config_df['code'] == code, 'error_daily_update_count'] = 0
        for code in except_code_list:
            # 更新配置信息config_df
            config_df.loc[config_df['code'] == code, 'error_daily_update_count'] \
                = row['error_daily_update_count'] + 1

        # 同步配置到本地
        self.config.save_config()
        # 手动触发去重
        sdb.optimize('stock_daily_price')

        print('更新本地配置成功...')
        print("成功请求的code: ", success_code_list)
        print("错误请求code: ", except_code_list)
        print(f'日行情更新耗时: {time.time() - last_time}')

结果:

要点分析:

进程间数据共享要通过这样子来创建,这里创建了两个列表,还有其他支持的数据类型,具体的自己查看 api.

with multiprocessing.Manager() as MG:
    success_code_list = MG.list()
    except_code_list = MG.list()

优化个股常用指标计算速度

计算的指标

指标计算是 cpu 任务密集型,所以用进程池。

本体系建立了一个指标表,这个表只记录个股自身相关的指标,分别是个股自身振幅百分比 amp 以及均线指标 ma,这两个指标包含 5、10、20、50、120、250 日的指标。

分拆任务

根据硬件自身条件 cpu 核数来启动进程池,拆分股票计算池,并分配到不同的进程,计算完毕后把指标更新到数据库。

表结构:

columns = {
        'date': 'Date',
        'code': 'String',
        'amp5': 'Float32',
        'amp10': 'Float32',
        'amp20': 'Float32',
        'amp50': 'Float32',
        'amp120': 'Float32',
        'amp250': 'Float32',
        'ma5': 'Float32',
        'ma10': 'Float32',
        'ma20': 'Float32',
        'ma50': 'Float32',
        'ma120': 'Float32',
        'ma250': 'Float32'
    }

核心代码:

def _update_common_ind_task(self, codes, start_time, end_time, success_list):
    """
    计算个股自身的的指标,股票池的形式查股票数据
    :param codes: 任务集合的股票池
    :param start_time: 开始时间
    :param end_time: 结束时间
    :param success_list: 计算成功列表
    :return:
    """

    # 查询基本日行情数据
    stocks_df = sdb.pool_stock_daily(codes, start_time, end_time, ['close'])
    if stocks_df.empty:
        return

    # 计算完的列表,用于后续拼接一次性插入数据库
    ind_df_list = []
    for code in codes:
        daily_df = stocks_df.loc[stocks_df['code'] == code]
        # 个股自身的振幅
        ind_df = mathutils.amplitude(daily_df['close'], amp5=5, amp10=10,
                                     amp20=20, amp50=50, amp120=120, amp250=250)
        # 计算个股ma
        ema_list = [5, 10, 20, 50, 120, 250]
        for i in ema_list:
            key = f'ma{str(i)}'
            ind_df[key] = ta.EMA(daily_df['close'], timeperiod=i)

        # 更新到指标表
        if not ind_df.empty:
            ind_df['code'] = code
            ind_df_list.append(ind_df)
            success_list.append(code)
        # print(f'{code} 指标计算完毕')
    result = pd.concat(ind_df_list)
    if not result.empty:
        sdb.to_indicator_table(result)
    print(f'该任务完毕,插入数据库条目数: {len(result)}')

    # 释放
    del stocks_df
    del ind_df_list

def update_common_ind(self):
    """
    更新常用指标
    :return:
    """
    # 更新常用指标
    config = self.config
    config_df = config.config_df
    format_str = '%Y-%m-%d'
    end_time = config.update_end_time()
    last_time = time.time()
    # 先去重,避免更新有冲突
    sdb.optimize(sdb.STOCK_DAILY_TABLE)
    sdb.optimize(sdb.STOCK_INDICATOR_TABLE)

    # 根据 cpu 个数拆分股票任务数
    cpu_count = os.cpu_count()
    with multiprocessing.Manager() as mg:
        # 进程内数据共享
        success_list = mg.list()
        all_codes = list(config_df['code'])
        item_count = int(len(all_codes) / cpu_count)
        print(f'每个任务计算指标个数:{item_count} codeLength: {len(all_codes)}')
        pool = multiprocessing.Pool(processes=cpu_count)
        for index in range(cpu_count):
            start_index = index * item_count
            end_index = start_index + item_count
            # 如果是最后一个任务,索引到最后
            if index == cpu_count - 1:
                end_index = len(all_codes)
            # 切片,分任务
            part_codes = all_codes[start_index: end_index]
            ind_start_time = config.ind_start_time(part_codes[0])
            # 偏移最大计算日期,最大日期 250 日均线,所以日行情数据开始位置要往前偏移
            start_time = timeutils.time_str_delta(ind_start_time, format_str, days=-365)
            if ind_start_time == end_time:
                print(f'已经计算过 时间:{end_time}')
                continue

            print(f'任务{index} 开始位置:{start_index} 结束位置:{end_index}')
            # 异步启动任务
            pool.apply_async(self._update_common_ind_task,
                             args=(part_codes, start_time, end_time, success_list))
        # 等待所有任务完毕
        pool.close()
        pool.join()
        print(f'指标计算完毕,耗时:{time.time() - last_time}')
        print(f'指标计算完毕 成功股票个数:{len(success_list)}')

        # 更新配置信息
        for code in success_list:
            config_df.loc[config_df['code'] == code, 'ind_update_time'] = end_time

    # 同步配置到本地
    self.config.save_config()
    # 操作完毕触发去重
    sdb.optimize(sdb.STOCK_INDICATOR_TABLE)

要点分析:update_common_ind() 函数是全部股票根据 cpu 核数划分任务池。_update_common_ind_task() 是任务函数,每个进程领取的部分股票池计算。

结果:

计算指标完毕后插入数据库时硬件使用情况,计算指标时可以看到 cpu 直接拉满。

参考链接

[1] 异步编程测试参考网址: https://afrankie.github.io/posts/一文搞懂python进程线程协程选择/

[2] 异步编程学习网址:https://gitee.com/paultest/asyncio_demo#协程--asyncio--异步编程

写于 2022 年 12 月 04 日 22:08:14

本文由mdnice多平台发布

标签:code,python,计算速度,io,time,全开,任务量,cpu,pool
From: https://www.cnblogs.com/sykent/p/16951158.html

相关文章

  • Python中的字符串常用处理方法
    字符串字符串就是一系列的字符。在Python中,用引号括起的都是字符串,其中的引号可以是单引号,也可以是双引号,如下所示:"Thisisastring."'Thisisalsoastring.'这种......
  • python中的 nonlocal 和 global
    做leetcode1774时候遇到的一个bugclassSolution:defclosestCost(self,baseCosts:List[int],toppingCosts:List[int],target:int)->int:ans=m......
  • Python基础之函数提高
    一、变量作⽤域变量作⽤域指的是变量⽣效的范围,主要分为两类:局部变量和全局变量。1、局部变量所谓局部变量是定义在函数体内部的变量,即只在函数体内部⽣效。deftestA():a......
  • Python 使用MongoDB & MongoDB 工具的封装
    Python使用MongoDB补充:操作之前首先在虚拟机或者服务器端启动MongoDB;#重新加载配置,并启动mongodbsudosystemctldaemon-reloadsudosystemctlstartmongod#......
  • python自动化办公初探之桌牌制作
    前言:开会用的桌牌,制作起来非常麻烦,要根据参会人员的不同,制作不同的桌牌。如果参会人员非常多,制作就变的更麻烦。通过python中的xlrd和docxtpl模块可以自动的快速生成桌牌,省......
  • Centos7.x安装Python3(优化方法)
    安装相应的编译工具建议在root下操作,会方便很多,一定要安装,否则编译安装会报错。yum-ygroupinstall"Developmenttools"yum-yinstallzlib-develbzip2-developens......
  • Centos7.x将Python2升级到Python3
    查看Python版本python-V更新yum源yumupdate安装依赖yuminstallyum-utilsyum-builddeppython3下载pythonwgethttps://www.python.org/ftp/python/3.8.5/Py......
  • 离线安装python库
    B站看到了水哥的自动化办公视频(5分钟,教你做个自动化软件拿来办公)但因为用的是内网,所以没法直接pipinstall所以这里我们离线安装安装的就是和视频中相关的几个库相关环......
  • python打包指南
    在项目的根目录里创建setup.py#-*-coding:utf-8-*-#author:navysummer#email:navysummer@yeah.netimportshutilimportsetuptoolsfromsetuptools.command.......
  • python字符串常用方法介绍,基于python3.10
     python字符串常用方法-目录:1、strip()、lstrip()、rstrip()2、removeprefix()、removesuffix()3、replace()4、split()、rsplit()5、join()6、upper()、lower()、capita......