首页 > 其他分享 >Tensorflow基本概念

Tensorflow基本概念

时间:2024-11-15 20:47:38浏览次数:3  
标签:run Graph cacluate Session tf Tensorflow constant 基本概念

在这里插入图片描述
简介:本文从Graph讲到Session,同时讲解了tf.constant创建tensor的用法和variable需要初始化的知识点,可以给你打好一个学习Tensorflow的基础。本文都是基于TensorFlow1.14.0的版本下运行。
本专栏将会系统的讲解TensorFlow在1.14.0版本下的各种用法并且会讲解各种常用的神经网络模型,希望能给大家带来一定的帮助,我也需要大家的关注

Tensorflow基本概念

1.1使用图Graphs表示计算任务

as_default是一种方便、规范地管理和使用自定义计算图,将相关操作准确添加到期望的计算图中的重要手段。

import tensorflow as tf
Graph_mean = tf.Graph()
with Graph_mean.as_default():
    # 在这个自定义图中定义两个常量
    a = tf.constant(5, name='a')
    b = tf.constant(3, name='b')
    # 定义一个加法操作
    c = tf.add(a, b, name='c')

# 查看计算图中的操作
print(Graph_mean.get_operations())

在这里插入图片描述
在上述代码中:
首先通过 tf.Graph() 创建了一个新的计算图对象 graph。
然后使用 with graph.as_default() 上下文管理器,确保后续定义的操作都添加到这个自定义的计算图中。这里定义了两个常量 a 和 b,并通过 tf.add 操作将它们相加得到 c。
最后通过 graph.get_operations() 打印出这个计算图中的操作信息,可以看到包含了定义的常量和加法操作相关内容。

1.2 在被称之为会话Session的上下文Context中执行图

在下面这段代码中 通过tf.compat.v1.Session 定义一个会话,使用run来进行定义好的加法操作

import tensorflow as tf
Graph_mean = tf.Graph()
with Graph_mean.as_default():
    # 在这个自定义图中定义两个常量
    a = tf.constant(5, name='a')
    b = tf.constant(3, name='b')
    # 定义一个加法操作
    c = tf.add(a, b, name='c')

with tf.compat.v1.Session(graph = Graph_mean) as cacluate:
    result = cacluate.run(c)
    print("计算结果:", result)
    

在这里插入图片描述
注意:网上跟TensorFlow的代码有很多,因为版本不同,有的时候会遇到warnings ,一些老版本的代码使用的是tf.Session,但是在1.14.0的版本中,对于老版本代码不再维护,推荐使用tf.compat.v1.Session来避免warnings,提醒大家是怕大家在阅读一些Github中找到的项目复制代码到自己的项目中。

1.3 使用tensor表示数据

1.3.1 tf.constant的用法

tf.constant(value, dtype=None, shape=None, name=‘constant’)
dtype:这是可选参数,用于指定张量的数据类型。
shape:也是可选参数,用于指定张量的形状。如果指定了形状,value的元素个数必须与形状所定义的元素个数一致。
name:同样是可选参数,用于给这个常量张量一个名字。
下面的代码展示了不同参数的作用

import tensorflow as tf
# 这是一个标量,也可以叫做零维张量
zero_dim_scalar = tf.constant(10,dtype=tf.float32)
# 创建一个一维张量
one_dim_tensor = tf.constant([1,2,3])
# 创建一个二维张量
two_dim_tensor = tf.constant([[1,2],[3,4]])
# 创建一个三维张量
tf.constant([[[1, 2], [3, 4]], [[5, 6], [7, 8]]],name='three_dim_tensor')

with tf.compat.v1.Session()as cacluate:
    print(f"常量:{cacluate.run(zero_dim_scalar)}")
    print(f"一维张量:{cacluate.run(one_dim_tensor)}")
    print(f"二维张量:{cacluate.run(two_dim_tensor)}")
    print(f"三维张量:{cacluate.run(three_dim_tensor)}")

在这里插入图片描述

1.4 通过变量vaiable维护状态

在下面这段代码中,使用tf.Variable定义一个变量variable_element,给他定义了一个自增1 操作add_one_option,在会话中初始化以后,用for循环重复执行查看变量变化情况

import tensorflow as tf
# 定义一个Variable 变量叫做 variable_element
variable_element = tf.Variable(0, dtype=tf.int32)
# 定义一个使 variable_element自增1的操作
add_one_option = variable_element.assign_add(1)
# 使用variable需要先初始化
init_option = tf.global_variables_initializer()

with tf.compat.v1.Session() as cacluate:
    cacluate.run(init_option)
    for i in range(5):
        cacluate.run(add_one_option)
        print("变量当前值:", cacluate.run(variable_element))

在这里插入图片描述

1.5 使用feed和fetch可以为任意的操作赋值或者从其中获取数据

在下面的代码实例中,定义了占位符,并且定义了平方操作,然后传入需要处理的数据

import tensorflow as tf
# 创建占位符
place = tf.compat.v1.placeholder(dtype = tf.int32,shape = [None])

# 创建一个操作,计算向量中元素的平方
square_option = tf.square(place)

with tf.compat.v1.Session() as sess:
    # 使用feed机制,将实际的数据传入占位符并执行操作,获取结果(fetch)
    input_data = [1, 2, 3]
    result = sess.run(square_option, feed_dict={place: input_data})
    print("计算结果:", result)

在这里插入图片描述

沟通

如果你们哪里有看不懂的地方可以积极和我沟通,我哪里讲的不够全了,哪里讲的不太对了,万事万物都是发展的,当你们有经验了以后,你们也会发现我的不足,希望我们能共同进步。

致谢

本文参考了一些博主的文章,博取了他们的长处,也结合了我的一些经验,对他们表达诚挚的感谢,使我对 TensorFlow的使用有更深入的了解,也推荐大家去阅读一下他们的文章。纸上学来终觉浅,明知此事要躬行:
TensorFlow创建常量(tf.constant)详解
tf.compat.v1.placeholder

标签:run,Graph,cacluate,Session,tf,Tensorflow,constant,基本概念
From: https://blog.csdn.net/qq_54414907/article/details/143806361

相关文章

  • MyBatis面试题--(底层原理与基本概念)
    目录什么是Mybatis?MyBatis的好处是什么?什么是ORM?有何作用?MyBatis中的SqlSession是什么?有什么作用?1>什么是SqlSession?2>SqlSession的作用解释一下SqlSessionFactory的作用并解释它如何使用SqlSessionFactory的作用?如何使用SqlSessionFactory1.添加依赖2.配置数据源和S......
  • TensorFlow\Keras实战100例——GAN生成图像
     一.原理说明GAN包括两个主要部分:生成器(Generator)鉴别器(Discriminator)。生成器负责创建新颖的图像,而鉴别器负责了解生成的图像有多好。我们要为GAN图像生成构建的整个架构如下图所示。二.数据说明MINST数据集是机器学习领域一个经典的数据集,其中包括70000个样本,包......
  • TensorFlow\Keras实战100例——变分自编码器生成图像
    一.原理说明变分自编码器是自编码器的改进版本,自编码器是一种无监督学习,但它无法产生新的内容,变分自编码器对其潜在空间进行拓展,使其满足正态分布,情况就大不一样了。自编码器是通过对输入X进行编码后得到一个低维的向量z,然后根据这个向量还原出输入X。通过对比X与X̃的误差,......
  • 网络安全从零开始学习CTF——CTF基本概念
    这一系列把自己学习的CTF的过程详细写出来,方便大家学习时可以参考。一、CTF简介01」简介中文一般译作夺旗赛(对大部分新手也可以叫签到赛),在网络安全领域中指的是网络安全技术人员之间进行技术竞技的一种比赛形式。CTF起源于1996年DEFCON全球黑客大会,以代替之前黑客们通过互......
  • 内网基本概念及知识
    参考:微信公众号:网络安全自修室1.内网概述内网也指局域网(LocalAreaNetwork,LAN),即在某一区域内由多台计算机互联成的计算机组。一般是方圆几千米以内。局域网可以实现文件管理,应用软件共享,打印机共享,工作组内的历程安排,电子邮件和传真通信服务等功能。内网是封闭型的,其可......
  • 计算机组成原理之超标量和动态流水线的基本概念
    1.超标量的基本概念定义:超标量(superscalar)CPU架构是指在一颗处理器内核中实行了指令级并行的一类并行运算。这种技术能够在相同的CPU主频下实现更高的CPU吞吐率(throughput)。应用背景:随着处理器技术的不断发展,为了提高处理器的性能,需要处理器具有每个周期能发射执行多条指......
  • hive的基本概念
    一、Hive的基本概念1、什么是hive(面试题)答:1.hive是一个可以将sql语句转换成mapreduce任务的工具2.hive能够将结构化的数据组织在表中,支持分区和分桶,便于数据的管理和查询3.hive是数据仓库建模的工具之一,他本身并不是数据库2、为什么使用hive答:1.直接使用mapreduce的话,人......
  • tensorflow案例5--基于改进VGG16模型的马铃薯识别,准确率提升0.6%,计算量降低78.07%
    ......
  • 2025年入门深度学习或人工智能,该学PyTorch还是TensorFlow?
    随着2025应用人工智能和深度学习技术的举世泛气,还在迷茫于该选择哪个深度学习框架吗?PyTorch和TensorFlow是并立于深度学习世界两座巨塔,但是越来越多人发现,在2025年,PyTorch似乎比TensorFlow更为流行和被接受。下面我来分析一下这两个深度学习框架的发展历史,应用差异和现状,以......
  • TensorFlow介绍
    TensorFlow是一个开源的机器学习框架,由Google开发并维护。它是一个基于数据流图的计算库,能够用于构建和训练各种机器学习模型。TensorFlow的核心功能是进行张量(Tensor)操作,它使用计算图来表示和执行数值计算。TensorFlow的基本概念包括:1.张量(Tensor):是多维数组的一种表示形式,......