首页 > 其他分享 >机器学习——自动生成古诗词

机器学习——自动生成古诗词

时间:2022-12-24 00:44:25浏览次数:78  
标签:sess 机器 batch 生成 print state tf size 古诗词

自动生成古诗词

一、选题背景

自动生成古诗词的初衷是想培养中小学生的传统文化,感受中华上下五千年的古诗词魅力,并培养他们的作词能力,陶冶情操

二、机器学习的实现步骤

  1. 从古诗词网站下载古诗,使用selenium 自动化框架进行爬取古诗词作为数据集
  2. 采用的是tensorflow的深度学习框架,TensorFlow™是一个基于数据流编程(dataflow programming)的符号数学系统,被广泛应用于各类机器学习(machine learning)算法的编程实现,其前身是谷歌的神经网络算法库DistBelief [1]  。

Tensorflow拥有多层级结构,可部署于各类服务器、PC终端和网页并支持GPUTPU高性能数值计算,被广泛应用于谷歌内部的产品开发和各领域的科学研究 [1-2]  。

TensorFlow由谷歌人工智能团队谷歌大脑(Google Brain)开发和维护,拥有包括TensorFlow Hub、TensorFlow Lite、TensorFlow Research Cloud在内的多个项目以及各类应用程序接口(Application Programming Interface, API) [2]  。自2015年11月9日起,TensorFlow依据阿帕奇授权协议(Apache 2.0 open source license)开放源代码 [2]  。

  1. 因为计算机并不能像人类阅读文章时做到联系上下文,所以需要通过nlp神经网络模型来解决这个问题

三、机器学习的实现步骤

  1. 目的:培养广大的中小学生作词的能力
  2. 数据:通过selenium自动化框架对古诗词网站进行爬取,将爬取下来的古诗词用jieba 分词进行分词,将数据分为训练集和测试集
  3. 此次使用的是nlp循环神经网络模型

 

 

 

 

 

  1. 对模型的参数进行设置
  2. 对模型进行训练
  3. 使用测试集对模型进行测试,如果测试完的模型没有达到想要的效果则将其进行重新训练

 1、导入需要用到的库

 

 

2诗集总数

 

 

 

 

 

 

 

 

 

 

 

 

 

 3、统计每个字出现次数

 

 

 

 

 

 

 

 

 

 

 

四、总结

在训练的过程中发现总是会出现过拟合的现象,在处理的数据的时候,准备的数据还是不够多,在这个过程中,巩固了之前学习的知识,也对机器学习有了更深层次的理解。最终的训练模型达到了预期的效果。通过selenium自动化框架对古诗词网站进行爬取,将爬取下来的古诗词用jieba 分词进行分词,将数据分为训练集和测试集,经过这次的训练我深刻的意识到自己还有很多方面的不足,今后会不断地改善、加强自己对部分代码的理解。

 

五、完整源代码(以及输出结果)

 

#coding=utf-8

 

 

 

import collections

 

import numpy as np

 

import tensorflow as tf

 

import codecs

 

 

 

#-------------------------------数据预处理---------------------------#

 

import sys

 

reload(sys)

 

sys.setdefaultencoding('utf-8')

 

 

 

 

 

poetry_file ='data/poetry.txt'

 

 

 

# 诗集

 

poetrys = []

 

with codecs.open(poetry_file, "r",'utf-8') as f:

 

for line in f:

 

# print line

 

try:

 

title, content = line.strip().split(':')

 

content = content.replace(' ','')

 

if '_' in content or '(' in content or '(' in content or '《' in content or '[' in content:

 

continue

 

if len(content) < 5 or len(content) > 79:

 

continue

 

content = '[' + content + ']'

 

# print content

 

poetrys.append(content)

 

except Exception as e:

 

print e

 

 

 

# 按诗的字数排序

 

poetrys = sorted(poetrys,key=lambda line: len(line))

 

print(u'唐诗总数: ', len(poetrys))

 

 

 

# 统计每个字出现次数

 

all_words = []

 

for poetry in poetrys:

 

all_words += [word for word in poetry]

 

counter = collections.Counter(all_words)

 

# print counter

 

count_pairs = sorted(counter.items(), key=lambda x: -x[1])

 

# print count_pairs

 

words, _ = zip(*count_pairs)

 

#add empty char

 

words = words + (" ",)

 

# map word to id

 

# 每个字映射为一个数字ID

 

word2idmap = dict(zip(words,range(len(words))))

 

# 把诗转换为向量形式

 

word2idfunc = lambda word:  word2idmap.get(word,len(words))

 

peorty_vecs  = [list(map(word2idfunc,peotry)) for peotry in poetrys]

 

 

 

 

 

 

 

#batch-wise padding:do padding to the same size(sequence length) of each batch

 

batch_size = 1

 

n_batch = (len(peorty_vecs)-1) // batch_size

 

X_data,Y_data = [],[]

 

for i in range(n_batch):

 

cur_vecs = peorty_vecs[i*batch_size:(i+1)*batch_size]

 

current_batch_max_length = max(map(len,cur_vecs))

 

batch_matrix = np.full((batch_size,current_batch_max_length),word2idfunc(" "),np.int32)

 

for j in range(batch_size):

 

batch_matrix[j,:len(cur_vecs[j])] = cur_vecs[j]

 

x = batch_matrix

 

X_data.append(x)

 

y = np.copy(x)

 

y[:,:-1] = x[:,1:]

 

# print x

 

# print y

 

Y_data.append(y)

 

 

 

 

 

#build rnn

 

vocab_size = len(words)+1

 

#input_size:(batch_size,feature_length)

 

input_sequences = tf.placeholder(tf.int32,shape=[batch_size,None])

 

output_sequences = tf.placeholder(tf.int32,shape=[batch_size,None])

 

 

 

 

 

def build_rnn(hidden_units=128,layers=2):

 

#embeding

 

with tf.variable_scope("embedding"):

 

embedding = tf.get_variable("embedding",[vocab_size,hidden_units],dtype=tf.float32)

 

#input: batch_size * time_step * embedding_feature

 

input = tf.nn.embedding_lookup(embedding,input_sequences)

 

 

 

basic_cell = tf.nn.rnn_cell.BasicLSTMCell(hidden_units,state_is_tuple=True)

 

stack_cell = tf.nn.rnn_cell.MultiRNNCell([basic_cell]*layers)

 

_initial_state = stack_cell.zero_state(batch_size,tf.float32)

 

outputs, state = tf.nn.dynamic_rnn(stack_cell, input,initial_state=_initial_state,dtype=tf.float32)

 

outputs = tf.reshape(outputs, [-1,hidden_units])

 

 

 

with tf.variable_scope("softmax"):

 

softmax_w  =tf.get_variable("softmax_w",[hidden_units,vocab_size])

 

softmax_b  =tf.get_variable("softmax_b",[vocab_size])

 

logits = tf.matmul(outputs,softmax_w)+softmax_b

 

 

 

probs = tf.nn.softmax(logits)

 

 

 

return logits, probs,stack_cell, _initial_state,state

 

 

 

def train(reload=True):

 

logits, probs,_,_,_ = build_rnn()

 

 

 

targets = tf.reshape(output_sequences,[-1])

 

 

 

loss = tf.nn.seq2seq.sequence_loss_by_example([logits], [targets],

 

[tf.ones_like(targets, dtype=tf.float32)],len(words))

 

cost = tf.reduce_mean(loss)

 

 

 

learning_rate = tf.Variable(0.002, trainable=False)

 

tvars = tf.trainable_variables()

 

grads, _ = tf.clip_by_global_norm(tf.gradients(cost, tvars), 5)

 

optimizer = tf.train.AdamOptimizer(learning_rate)

 

train_op = optimizer.apply_gradients(zip(grads, tvars))

 

 

 

global_step = 0

 

with tf.Session() as sess:

 

sess.run(tf.initialize_all_variables())

 

 

 

saver = tf.train.Saver(write_version=tf.train.SaverDef.V2)

 

 

 

if reload:

 

module_file = tf.train.latest_checkpoint('.')

 

sess = saver.restore(module_file)

 

print "reload sess"

 

 

 

for epoch in range(50):

 

print "learning_rate decrease"

 

if global_step%80==0:

 

sess.run(tf.assign(learning_rate, 0.002 * (0.97 ** epoch)))

 

epoch_steps =  len(zip(X_data,Y_data))

 

for step,(x,y) in enumerate(zip(X_data,Y_data)):

 

global_step = epoch * epoch_steps + step

 

_, los  = sess.run([train_op, cost], feed_dict={

 

input_sequences:x,

 

output_sequences:y,

 

})

 

print "epoch:%d steps:%d/%d loss:%3f" % (epoch,step,epoch_steps,los)

 

if global_step%100==0:

 

print "save model"

 

saver.save(sess,"peotry",global_step=epoch)

 

 

 

 

 

def write_poem():

 

 

 

def to_word(weights):

 

t = np.cumsum(weights)

 

s = np.sum(weights)

 

sample = int(np.searchsorted(t, np.random.rand(1)*s))

 

print "sample:",sample

 

print "len Words:",len(words)

 

return words[sample]

 

 

 

#

 

 

 

logits, probs,stack_cell, _initial_state, last_state = build_rnn()

 

with tf.Session() as sess:

 

sess.run(tf.initialize_all_variables())

 

saver = tf.train.Saver(write_version=tf.train.SaverDef.V2)

 

module_file = tf.train.latest_checkpoint('.')

 

print "load:",module_file

 

saver.restore(sess,module_file)

 

 

 

_state = sess.run(stack_cell.zero_state(1,dtype=tf.float32))

 

 

 

x = np.array([[word2idfunc('[')]])

 

 

 

prob_, _state = sess.run([probs,last_state],feed_dict={input_sequences:x,_initial_state:_state})

 

 

 

word = to_word(prob_)

 

 

 

poem = ''

 

 

 

import time

 

while word != ']':

 

poem += word

 

x = np.array([[word2idfunc(word)]])

 

[probs_, _state] = sess.run([probs, last_state], feed_dict={input_sequences: x, _initial_state: _state})

 

word = to_word(probs_)

 

# time.sleep(1)

 

 

 

return poem

 

 

 

 

 

def write_head_poem(heads):

 

 

 

def to_word(weights):

 

#注意:以下注释代码实现了按照分布的概率进行采样,也可用在word2vec中

 

# t = np.cumsum(weights)

 

# s = np.sum(weights)

 

# sample = int(np.searchsorted(t, np.random.rand(1)*s))

 

# print "sample:",sample

 

# print "len Words:",len(words)

 

sample = np.argmax(weights)

 

return words[sample]

 

 

 

logits, probs,stack_cell, _initial_state, last_state = build_rnn()

 

 

 

with tf.Session() as sess:

 

sess.run(tf.initialize_all_variables())

 

saver = tf.train.Saver(write_version=tf.train.SaverDef.V2)

 

module_file = tf.train.latest_checkpoint('.')

 

print "load:",module_file

 

saver.restore(sess,module_file)

 

 

 

_state = sess.run(stack_cell.zero_state(1,dtype=tf.float32))

 

 

 

poem = ''

 

add_comma = False

 

for head in heads:

 

x = head

 

add_comma =  not add_comma

 

while x!="," and x!="。" and x!=']':

 

#add current

 

poem += x

 

x = np.array([[word2idfunc(x)]])

 

#generate next based on current

 

prob_, _state = sess.run([probs,last_state],feed_dict={input_sequences:x,_initial_state:_state})

 

x = to_word(prob_)

 

sign = "," if add_comma else "。"

 

poem = poem + sign

 

return poem

 

 

 

 

 

 

 

 

 

 

 

 

 

# train(False)

 

print(write_poem())

 

# print(write_head_poem(u"一二三四"))

 

标签:sess,机器,batch,生成,print,state,tf,size,古诗词
From: https://www.cnblogs.com/wu-wenjie/p/wu-wenjie.html

相关文章

  • 机器学习——鞋类别识别
    机器学习——鞋类别识别一、选题背景随着计算机硬件的不断发展,人工智能再次走进研究人员的实现,通过构造一定智能的人工系统,让机器去完成以往需要人类智力才能胜任的......
  • 机器学习——景观识别
    一、选题背景:景观识别是一种人工智能技术,旨在通过自然场景的图像或视频来识别和分类不同的景观类型。这种技术可以用于多种应用场景,如旅游、地理信息系统、环境监测等。......
  • 机器学习-----心律失常分类
    Python机器学习--------心率失常分类一、选题的背景介绍因为随着我国逐渐步入老龄化社会还有年轻人喜欢熬夜玩游戏,心血管疾病患者持续增加,使得心脏监护系统需求也在不断......
  • 【机器学习】李宏毅——Domain Adaptation(领域自适应)
    在前面介绍的模型中,一般我们都会假设训练资料和测试资料符合相同的分布,这样模型才能够有较好的效果。而如果训练资料和测试资料是来自于不同的分布,这样就会让模型在测试集......
  • 用pythondocx批量生成Word文档
    流程 安装:pipinstallpython-doc-ihttps://pypi.tuna.tsinghua.edu.cn/simplepipinstallpython-docxfromdocximportDocumentfromdocx.enum.textimportWD_ALIGN_......
  • C# 使用QRCoder生成二维码
    @目录简介第一步安装Nuget包QRCoder第二步创建一个公共类QRCoderHelper.cs第三步窗体代码第四步实现方式简介最近瞎琢磨的一些小东西,也算是一个比较完整的二维码......
  • C# 使用QRCoder生成二维码
    简介最近瞎琢磨的一些小东西,也算是一个比较完整的二维码生成了,上手也很快,可自行扩展。现在生成二维码有多种方式,我使用的是QRCoder。第一步安装Nuget包QRCoder也可以......
  • 前端表单生成器
    前言以表单为主的页面(中后台)编写起来很是苦恼,涉及到大量表单状态维护和校验。方案但是这里有两个表单生成插件start最多的:vue:http://www.form-create.comreact:https:......
  • 解决封装echarts图标后,遍历生成多个echarts图,只能渲染出来一个问题
    Vue页面多次渲染echarts封装的组件但只出现一个(原因分析,多方案解决,最后附上源码)原因分析首先我们要知道echart实例的创建方式通过获取div的id从而初始化echar......
  • 用pandas生成数据透视表
    原表:importpandasaspdimportnumpyasnpe_file=pd.ExcelFile(r"D:\mycode\files\7月下旬入库表.xlsx")data=e_file.parse('7月下旬入库表')pt1=pd.pivot_table(da......