首页 > 其他分享 >用RNN(循环神经网络)预测股票价格

用RNN(循环神经网络)预测股票价格

时间:2024-09-07 16:53:15浏览次数:6  
标签:RNN 模型 back 神经网络 序列 股票价格 数据 look

RNN(循环神经网络)是一种特殊类型的神经网络,它能够处理序列数据,并且具有记忆先前信息的能力。这种网络结构特别适合于处理时间序列数据、文本、语音等具有时间依赖性的问题。RNN的核心特点是它可以捕捉时间序列中的长期依赖关系。

RNN的基本结构

RNN由多个重复的单元组成,每个单元可以看作是一个小型的神经网络。这些单元按顺序处理序列中的每个元素,并且每个单元的输出不仅取决于当前的输入,还取决于前一个单元的输出。这种结构使得RNN能够在序列的不同时间点之间传递信息。

RNN的工作原理

  1. 输入:RNN接收一个序列作为输入,序列中的每个元素在不同的时间步骤被输入到网络中。

  2. 隐藏层:每个时间步骤,RNN都会计算一个隐藏状态,这个状态是当前输入和前一时间步骤隐藏状态的函数。隐藏状态可以看作是网络对到目前为止所观察到的所有输入的总结。

  3. 输出:在每个时间步骤,RNN可以产生一个输出,这个输出是基于当前的隐藏状态。对于某些任务,如语言模型或文本生成,输出可能是序列的下一个元素。

  4. 循环连接:RNN的每个单元都包含一个循环连接,这个连接将当前单元的输出反馈到下一个时间步骤的相同单元的输入中。这种循环连接是RNN能够处理序列数据的关键。

RNN的变体

由于标准的RNN在处理长序列时会遇到梯度消失或梯度爆炸的问题,因此出现了一些改进的RNN结构:

  1. LSTM(长短期记忆网络):LSTM通过引入门控机制(输入门、遗忘门、输出门)来解决梯度消失的问题,使得网络能够学习到长期依赖关系。

  2. GRU(门控循环单元):GRU是LSTM的一个简化版本,它将LSTM中的三个门减少为两个门(更新门和重置门),并且将细胞状态和隐藏状态合并为一个。

  3. 双向RNN(Bi-RNN):在双向RNN中,序列的每个元素同时被两个RNN处理,一个处理正向序列,另一个处理反向序列。这允许网络在每个时间步骤同时考虑前后文信息。

RNN的应用

RNN在许多领域都有广泛的应用,包括:

  • 自然语言处理:如机器翻译、文本摘要、情感分析、语言模型。
  • 语音识别:将语音信号转换为文本。
  • 时间序列预测:如股票价格预测、天气预测。

RNN的这些应用通常涉及到序列数据的处理,其中序列中的元素之间存在时间上的依赖关系。通过学习这些依赖关系,RNN能够预测序列的未来走向或理解序列的模式。

要实现一个预测股票价格的循环神经网络(RNN)模型,我们需要考虑以下几个关键步骤:

  1. 数据收集:获取股票价格历史数据,通常包括开盘价、最高价、最低价、收盘价和成交量等。
  2. 数据预处理:包括数据清洗、归一化或标准化、序列构造等,以便于模型能够更好地学习和泛化。
  3. 模型设计:选择合适的RNN架构,如简单RNN、LSTM或GRU,并设计网络层结构。
  4. 模型训练:使用训练数据对模型进行训练,并调整参数以优化性能。
  5. 预测与评估:使用测试数据评估模型的预测能力,并选择合适的评估指标,如均方误差(MSE)。

接下来,我将提供一个简化的RNN模型实现案例,用于预测股票价格。

假设已经收集到了股票价格的历史数据,并将其存储在一个名为stock_prices.csv的文件中。数据预处理和模型设计将基于这个假设数据进行。

数据入口:‌​‌‬‬​‬​​​​‍​‬​‍‌​‬‌‍​​​​​‍​​​​​‬​‬​⁠‬‬用于学习的财经数据 - 飞书云文档 (feishu.cn)

接下来将使用Python来编写股票价格预测脚本,利用TensorFlow和Keras库构建和训练一个循环神经网络(RNN)模型。

Step1:导入所需的库

import pandas as pd
import numpy as np
from sklearn.preprocessing import MinMaxScaler
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, SimpleRNN
from tensorflow.keras.optimizers import Adam
import numpy as np

这里导入了数据处理(pandas)、数据预处理(MinMaxScaler)、神经网络模型构建(Sequential, Dense, SimpleRNN)和优化器(Adam)相关的库。

Step2:加载数据

data = pd.read_csv('stock_prices.csv')

使用pandas库从CSV文件中读取股票价格数据。

Step3:选择特征和标签

features = data[['Open', 'High', 'Low', 'Volume']]
labels = data['Close']

从数据中提取开盘价、最高价、最低价和成交量作为特征(用于训练模型),收盘价作为标签(模型的预测目标)。

Step4:数据归一化

scaler = MinMaxScaler(feature_range=(0, 1))
scaled_features = scaler.fit_transform(features)
scaled_labels = scaler.fit_transform(labels.values.reshape(-1, 1))

使用MinMaxScaler将特征和标签数据缩放到0和1之间,以帮助神经网络更好地学习。

这里创建了一个MinMaxScaler实例,并指定了特征范围feature_range为(0, 1)。这意味着所有的特征将被缩放到0和1之间。

fit_transform方法执行两个操作:首先,fit方法计算用于缩放数据的参数(即每个特征的最小值和最大值)。然后,transform方法使用这些参数来实际转换数据。features是包含所有特征数据的DataFrame,调用fit_transform后,这些特征将被缩放到0和1之间的范围。

这一步与上一步类似,但是它应用于标签数据。首先,由于labels是一个Series,使用.values将其转换为NumPy数组。然后,.reshape(-1, 1)将数组重塑为一个列向量,这是因为fit_transform期望输入数据的形状为 [n_samples, n_features]。在这个例子中,n_features是1,因为我们只有一个标签(收盘价)。

Step5:构造序列数据

def create_dataset(data, look_back=1):
    X, Y = [], []  # 初始化两个列表,X用于存储特征,Y用于存储标签
    for i in range(len(data) - look_back):  # 遍历数据,直到长度减去look_back
        X.append(data[i:(i + look_back), :])  # 将从当前位置到look_back的数据追加到X列表
        Y.append(data[i + look_back, :])  # 将look_back之后的数据追加到Y列表
    return np.array(X), np.array(Y)  # 将列表转换为NumPy数组并返回

look_back = 1
X, Y = create_dataset(scaled_features, look_back)

参数说明:

  • data: 输入的时间序列数据,通常是二维数组,其中每一行代表一个时间步,每一列代表一个特征。
  • look_back: 一个整数,表示在构造特征序列时回看的历史时间步数。默认值为1,表示只使用前一个时间步的数据作为特征。

函数内部逻辑:

  1. 初始化两个空列表 X 和 Y,用于存储特征和标签。

  2. 使用 for 循环遍历数据,循环的范围是 len(data) - look_back。这是因为我们需要确保对于每个起始索引 i,都有足够的后续数据来构造一个长度为 look_back 的特征序列和一个对应的标签。

  3. 在每次循环中,使用切片操作 data[i:(i + look_back), :] 来从数据中提取长度为 look_back 的子序列,并将其追加到 X 列表中。

  4. 同时,提取 look_back 之后的数据行 data[i + look_back, :] 作为标签,并将其追加到 Y 列表中。

  5. 循环结束后,使用 np.array 将 X 和 Y 列表转换为 NumPy 数组,并返回这两个数组。

调用 create_dataset 函数:

look_back = 1
X, Y = create_dataset(scaled_features, look_back)

这里,look_back 被设置为 1,表示每个特征序列将只包含一个时间步。然后,create_dataset 函数被调用来处理 scaled_features 数据(假设这是之前已经归一化的特征数据)。函数返回的 X 和 Y 将被用作训练模型的输入和目标数据。

简而言之,这段代码的目的是将原始时间序列数据转换为适合训练序列预测模型的形式,其中 X 包含多个时间步的特征序列,而 Y 是对应的标签数组。

Step6:创建模型

model = Sequential()
model.add(SimpleRNN(units=50, return_sequences=True, input_shape=(look_back, features.shape[1])))
model.add(SimpleRNN(units=50))
model.add(Dense(1))

创建一个序贯模型(Sequential),并添加了两层SimpleRNN和一个输出层(Dense)。第一个SimpleRNN层返回序列,第二个不返回。

Step7:编译模型

model.compile(optimizer=Adam(learning_rate=0.001), loss='mean_squared_error')

使用Adam优化器和均方误差损失函数来编译模型。

Step8:训练模型

model.fit(X, Y, epochs=100, batch_size=32, verbose=1)

使用提供的特征和标签数据训练模型,设置迭代次数为100,批量大小为32,并显示训练过程。

Step9:预测

predicted_prices = model.predict(X)
predicted_prices = scaler.inverse_transform(predicted_prices)
df_predicted = pd.DataFrame(predicted_prices, columns=['Predicted Close Price'])
df_predicted

使用训练好的模型进行预测,并将预测结果从归一化后的值转换回原始尺度,结果如下:

761d1452662e48579b19c831e6f47be8.png

以上就是用Python编写的一个股票价格预测脚本,利用了TensorFlow和Keras库来构建和训练一个循环神经网络(RNN)模型来预测股票价格的相对完整的过程。

 

想要了解更多多元化的数据分析视角,可以关注之前发布的相关内容。

 

标签:RNN,模型,back,神经网络,序列,股票价格,数据,look
From: https://blog.csdn.net/2301_80651329/article/details/141787797

相关文章

  • Python贝叶斯卷积神经网络BCNN分类胸部X光图像数据集实例
    分析师:YuanchunNiu在人工智能的诸多领域中,分类技术扮演着核心角色,其应用广泛而深远。无论是在金融风险评估、医疗诊断、安全监控还是日常的交互式服务中,有效的分类算法都是实现智能决策的关键。随着大数据时代的到来,分类算法面临着前所未有的挑战和机遇。一方面,海量的数据为算法提......
  • 关于卷积神经网络(CNN)的详解
    一、基本概念卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks,FNN),是深度学习的代表算法之一。它仿造生物的视觉机制构建,能够进行监督学习和非监督学习,广泛应用于图像识别、视频分析、自然语言处......
  • 【保姆级教程】使用 PyTorch 自定义卷积神经网络(CNN) 实现图像分类、训练验证、预测全
    《博主简介》小伙伴们好,我是阿旭。专注于人工智能、AIGC、python、计算机视觉相关分享研究。......
  • 深入浅出孪生神经网络,高效训练模型
    大家好,在深度学习领域,神经网络几乎能处理各种任务,但通常需要依赖于海量数据来达到最佳效果。然而,对于像面部识别和签名验证这类任务,我们不可能总是有大量的数据可用。由此产生了一种新型的神经网络架构,称为孪生网络。孪生神经网络能够基于少量数据实现精准预测,本文将介绍孪生......
  • Python贝叶斯卷积神经网络BCNN分类胸部X光图像数据集实例
    全文链接:https://tecdat.cn/?p=37604原文出处:拓端数据部落公众号分析师:YuanchunNiu在人工智能的诸多领域中,分类技术扮演着核心角色,其应用广泛而深远。无论是在金融风险评估、医疗诊断、安全监控还是日常的交互式服务中,有效的分类算法都是实现智能决策的关键。随着大数据时代的......
  • 回归预测 | MATLAB实现PSO-LSTM(粒子群优化长短期记忆神经网络)多输入单输出
    回归预测|MATLAB实现PSO-LSTM(粒子群优化长短期记忆神经网络)多输入单输出目录回归预测|MATLAB实现PSO-LSTM(粒子群优化长短期记忆神经网络)多输入单输出预测效果基本介绍模型介绍PSO模型LSTM模型PSO-LSTM模型程序设计参考资料致谢预测效......
  • 安装了跑神经网络的环境,所遇到的问题及解惑1
    cuda:12.2cudnn:8.9.7tensorflow库:2.17.0(python310_test){9:37}/home/code/python➭pythonmnist_test.py2024-09-0609:39:29.473128:Eexternal/local_xla/xla/stream_executor/cuda/cuda_dnn.cc:9261]UnabletoregistercuDNNfactory:Attemptingtoregister......
  • SVI pyro 随机变分推理的提示和技巧 ,贝叶斯神经网络 bnn pytorch python
    SVI第四部分:提示和技巧¶pyro.ai/examples/svi_part_iv.html导致这一个的三个SVI教程(第一部分, 第二部分,& 第三部分)通过使用Pyro做变分推断所涉及的各个步骤。在这个过程中,我们定义了模型和指南(即,变分分布),设置了变分目标(特别是埃尔博斯),以及构造的优化器(pyro.opti......
  • 基于SA-BP模拟退火算法优化BP神经网络实现数据预测Python实现
        在数据分析和机器学习领域,时间序列预测和多输入单输出系统的预测是重要且复杂的问题。传统的BP(反向传播)神经网络虽然具有强大的非线性函数逼近能力,但在处理这些问题时容易陷入局部极小值、训练速度慢以及过拟合等问题。为了克服这些不足,我们引入了SA-BP(模拟退火算法......
  • 神经网络之卷积篇:详解卷积神经网络示例(Convolutional neural network example)
    详解卷积神经网络示例假设,有一张大小为32×32×3的输入图片,这是一张RGB模式的图片,想做手写体数字识别。32×32×3的RGB图片中含有某个数字,比如7,想识别它是从0-9这10个数字中的哪一个,构建一个神经网络来实现这个功能。用的这个网络模型和经典网络LeNet-5非常相似,灵感也来源于此......