首页 > 其他分享 >Tensorflow

Tensorflow

时间:2023-09-09 16:11:57浏览次数:46  
标签:sess Variable train TensorFlow tf Tensorflow data

TensorFlow 是由 Google 开发的一个开源深度学习框架,用于构建和训练机器学习模型。它提供了丰富的工具和库,可以支持各种不同类型的机器学习和深度学习任务,如图像识别、语音识别、自然语言处理等。

TensorFlow 的基本概念包括以下几个部分:

1. 张量 (Tensor): 是 TensorFlow 最基本的数据结构,表示任意维度的数组或矩阵。

2. 计算图 (Computational Graph): 它是 TensorFlow 中的核心概念,表示机器学习模型的计算流程。

3. 变量 (Variable): 是在计算图中用于存储模型参数和状态的对象。

4. 操作 (Operation): 是 TensorFlow 中的基本操作,用于对张量进行各种类型的运算。

在使用 TensorFlow 进行机器学习和深度学习任务时,可以应用它的以下场景:

1. 图像识别:使用 TensorFlow 中的卷积神经网络 (CNN) 模型能够实现对图片中物体的识别和分类。

2. 语音识别:使用 TensorFlow 中的循环神经网络 (RNN) 模型,能够实现对语音的识别和转录。

3. 自然语言处理:使用 TensorFlow 中的词向量 (word embedding) 技术,可以将语言数据转换为向量形式,从而方便进行文本分类和预测等任务。

总的来说,TensorFlow 是一个非常强大的机器学习框架,可以应用于许多不同的场景,同时也易于使用和扩展。

TensorFlow是一个广泛使用的深度学习框架,可用于解决各种机器学习问题。接下来,我们将使用Python语言编写一些示例代码,以说明TensorFlow中的一些常见算法。

1. Linear Regression (线性回归)

线性回归是TensorFlow中的一个基本算法,用于预测一个连续变量的值。下面是一个简单的线性回归模型的示例代码:

import tensorflow as tf
import numpy as np

#输入数据
x_data = np.random.rand(100).astype(np.float32)
y_data = x_data * 0.1 + 0.3

#构建模型
Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
biases = tf.Variable(tf.zeros([1]))
y = Weights * x_data + biases

#定义损失函数和优化器
loss = tf.reduce_mean(tf.square(y - y_data))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)

#初始化所有变量
init = tf.global_variables_initializer()

#启动图 (graph)
sess = tf.Session()
sess.run(init)

#开始训练模型
for step in range(201):
    sess.run(train)
    if step % 20 == 0:
        print(step, sess.run(Weights), sess.run(biases))

在此代码中,我们首先生成随机数据(x_data, y_data)作为输入。然后,我们定义了一个包含权重(Weights)和偏差(biases)的模型,用于预测y的值。接下来定义了损失函数和梯度下降优化器。最后,我们初始化所有变量并训练模型。

2. Neural Networks (神经网络)

神经网络是一种具有强大预测能力的深度学习模型。下面是一个简单的全连接神经网络的示例代码:

import tensorflow as tf
import numpy as np

#导入MNIST数据集
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)

#定义输入输出层
x = tf.placeholder(tf.float32, [None, 784])
y = tf.placeholder(tf.float32, [None, 10])

#定义神经网络
Weights_1 = tf.Variable(tf.truncated_normal([784, 256], stddev=0.1))
biases_1 = tf.Variable(tf.zeros([256]))
layer_1 = tf.nn.relu(tf.matmul(x, Weights_1) + biases_1)

Weights_2 = tf.Variable(tf.truncated_normal([256, 10], stddev=0.1))
biases_2 = tf.Variable(tf.zeros([10]))
y_pred = tf.nn.softmax(tf.matmul(layer_1, Weights_2) + biases_2)

#定义损失函数和优化器
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y * tf.log(y_pred), reduction_indices=[1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

#计算准确率
correct_prediction = tf.equal(tf.argmax(y_pred,1), tf.argmax(y,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

#启动图 (graph)
sess = tf.Session()
sess.run(tf.global_variables_initializer())

#开始训练模型
for i in range(2000):
    batch_xs, batch_ys = mnist.train.next_batch(100)
    sess.run(train_step, feed_dict={x: batch_xs, y: batch_ys})
    if i % 100 == 0:
        print(sess.run(accuracy, feed_dict={x: mnist.test.images, y: mnist.test.labels}))

在此代码中,我们首先导入MNIST数据集,并定义输入输出层。然后,我们定义了一个包含两个隐藏层的全连接神经网络,使用ReLU作为激活函数。接下来,我们定义损失函数和Adam优化器。最后,我们计算模型的准确率并开始训练模型。

3. Convolutional Neural Networks (卷积神经网络)

卷积神经网络是一种能够有效处理图像的深度学习模型。下面是一个简单的卷积神经网络的示例代码:

import tensorflow as tf
import numpy as np

#导入MNIST数据集
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)

#定义输入输出层
x = tf.placeholder(tf.float32, [None, 784])
y = tf.placeholder(tf.float32, [None, 10])
x_image = tf.reshape(x, [-1,28,28,1])

#定义卷积神经网络
W_conv1 = tf.Variable(tf.truncated_normal([5, 5, 1, 32], stddev=0.1))
b_conv1 = tf.Variable(tf.constant(0.1, shape=[32]))
h_conv1 = tf.nn.relu(tf.nn.conv2d(x_image, W_conv1, strides=[1, 1, 1, 1], padding='SAME') + b_conv1)

h_pool1 = tf.nn.max_pool(h_conv1, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')

W_conv2 = tf.Variable(tf.truncated_normal([5, 5, 32, 64], stddev=0.1))
b_conv2 = tf.Variable(tf.constant(0.1, shape=[64]))
h_conv2 = tf.nn.relu(tf.nn.conv2d(h_pool1, W_conv2, strides=[1, 1, 1, 1], padding='SAME') + b_conv2)

h_pool2 = tf.nn.max_pool(h_conv2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')

W_fc1 = tf.Variable(tf.truncated_normal([7 * 7 * 64, 1024], stddev=0.1))
b_fc1 = tf.Variable(tf.constant(0.1, shape=[1024]))
h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)

keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)

W_fc2 = tf.Variable(tf.truncated_normal([1024, 10], stddev=0.1))
b_fc2 = tf.Variable(tf.constant(0.1, shape=[10]))
y_pred = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)

#定义损失函数和优化器
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y * tf.log(y_pred), reduction_indices=[1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

#计算准确率
correct_prediction = tf.equal(tf.argmax(y_pred,1), tf.argmax(y,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

#启动图 (graph)
sess = tf.Session()
sess.run(tf.global_variables_initializer())

#开始训练模型
for i in range(2000):
    batch = mnist.train.next_batch(50)
    if i % 100 == 0:
        train_accuracy = accuracy.eval(feed_dict={x:batch[0], y: batch[1], keep_prob: 1.0}, session=sess)
        print("step %d, training accuracy %g"%(i, train_accuracy))
    train_step.run(feed_dict={x: batch[0], y: batch[1], keep_prob: 0.5}, session=sess)

print("test accuracy %g"%accuracy.eval(feed_dict={x: mnist.test.images, y: mnist.test.labels, keep_prob: 1.0}, session=sess))

在此代码中,我们首先导入MNIST数据集,并定义输入输出层。然后,我们定义了一个包含两个卷积层和两个池化层的卷积神经网络。接下来,我们定义了一个全连接层和dropout层。最后,我们定义了损失函数和Adam优化器,计算模型的准确率并开始训练模型。

这些示例代码展示了在TensorFlow中实现一些基本算法的方法。当然,这些只是示例,您可以使用TensorFlow尝试更复杂的算法。

标签:sess,Variable,train,TensorFlow,tf,Tensorflow,data
From: https://www.cnblogs.com/panjinhao/p/17684428.html

相关文章

  • tensorflow选择cpu/gpu训练
    http://www.taodudu.cc/news/show-3980798.html?action=onClick通过环境变量控制屏蔽GPUexportCUDA_VISIBLE_DEVICES=""通过训练代码控制https://blog.csdn.net/dream_to_dream/article/details/122249872选择CPU:importosos.environ["CUDA_DEVICE_ORDER"]="......
  • 学习tensorflow资源
    学习tensorflow先不要着急买书,买教程,先看看官网社区的教程资源,比什么都强。https://www.tensorflow.org/?hl=zh-cn再有就是tf.wiki的简单粗暴tensorflow2https://tf.wiki/zh_hans/最后在加上一个“文心一言”,不懂就问,精准学习。https://yiyan.baidu.com/都看完了,再说......
  • tensorflow 数据及操作整理
     目录:#1.类型#2.基础操作#3.运算相关#4.求导相关数据类型:###############################标量(0维数组)、#向量(1维数组)、#矩阵(2维数组)#张量(Tensor),概念上等同于多维数组 #1.类型#定义一个随机数(标量)random_float=tf.random.uniform(s......
  • Tensorflow的简单神经网络
     #导入库importtensorflowastfimportnumpyasnpfromtensorflowimportkeras#定义和编译一个神经网络model=tf.keras.Sequential([keras.layers.Dense(units=1,input_shape=[1])])#编译并指定lossoptimizermodel.compile(optimizer='sgd',loss='mean_sq......
  • 使用 TensorFlow 进行机器学习
    使用TensorFlow进行机器学习这是使用TensorFlow进行机器学习的官方代码存储库。使用TensorFlow(Google最新、最好的机器学习库)开始进行机器学习。概括第2章-TensorFlow基础知识概念1:定义张量概念2:评估操作概念3:互动会话概念4:会话日志记录概念5:变量概念6......
  • This TensorFlow binary is optimized to use available CPU instructions in perform
    ThisTensorFlowbinaryisoptimizedtouseavailableCPUinstructionsinperformance-criticaloperations.Toenablethefollowinginstructions:AVX2FMA,inotheroperations,rebuildTensorFlowwiththeappropriatecompilerflags.   这是TensorFlow库在安......
  • tensorflow模型训练保存minist OCR
    importtensorflowastffromtensorflow.python.framework.convert_to_constantsimportconvert_variables_to_constants_v2fromtensorflow.python.toolsimportoptimize_for_inference_libimportnumpyasnpimportmatplotlib.pyplotaspltimportdatetimeimpor......
  • 无涯教程-TensorFlow - 图像识别
    TensorFlow包含图像识别的特殊功能,并且这些图像存储在特定的文件夹中,图像识别代码实现的文件夹结构如下图所示-dataset_image包含需要加载的相关图像。无涯教程将专注于图像识别,图像使用"load_data.py"脚本加载,这有助于在其中的各个图像识别模块上保留注释。importpicklefro......
  • 无涯教程-TensorFlow - 优化器
    Optimizers是扩展类,其中包括用于训练特定模型的附加信息,Optimizers类使用给定的参数初始化,用于提高速度和性能,以训练特定模型。TensorFlow的基本Optimizers是-tf.train.Optimizer此类在tensorflow/python/training/optimizer.py的指定路径中定义。无涯教程将专注于随机梯度下......
  • 无涯教程-TensorFlow - 感知器的隐藏层
    在本章中,无涯教程将专注于从x和f(x)的已知点集中学习的网络,由单个隐藏层将构建此简单网络。解释感知器隐藏层的代码如下所示-#Importingthenecessarymodulesimporttensorflowastfimportnumpyasnpimportmath,randomimportmatplotlib.pyplotaspltnp.ran......