通信人家园

标题: Tensorflow的基础结构  [查看完整版帖子] [打印本页]

时间:  2020-11-4 15:59
作者: 大辉刘     标题: Tensorflow的基础结构

·Tensorflow的基础结构:
Tensorflow怎么样处理数据的结构,这个结构是Tensorflow底层的结构,也就是神经网络的结构。
这样的一张图第一个是input layer 第二个是hiddnlayer,最后一个是输出层这样的典型的神经网络的结构。我们可以点开看一下这种input layer它可以包含x-input y-input这就是两种不同的inputhidden input,他也是可以被打开,看一下具体有什么东西,它可以包含weightsblases也就是他的权重和偏置,我们会在今后的练习当中会具体的讲到
怎么去设置和怎么去处理这些偏置啊和Wblases,他还有很多其他的结构,比如说activate function激活函数,然后还有很多很多东西。我们第一步要做的就是要建立这种结构。建立好这种结构,我们再可以把我们的数据放到这个结构中。让tensorflow自己去运行。那tensorflow用中文去翻译的话那就是向量在这个结构里面飞。那这就是tensorflow基本的含意了。
我们具体看一下它是怎样的一个向量在里面飞呢。那首先你可以看到它是有一个流动的概念的。Input他怎么样飞,他先飞到我这个隐藏层,然后这个是输出层,数据不断地飞飞飞,然后这个是我的Tensorflow数据处理的地方叫做Gradients
然后通过这种处理形式再把他的每一层他的参数呢进行进一步的提升和完善。这些完善了的参数在我们下一次的tensorflow这种数据飞的流程当中呢,又被赋值过来,也就是这是被提升了的参数在进行在下一次的tensorflow,那么这种就是一个不断的循环的形式,进行我的神经网络的一个改善或者进步。这个就是这节课要讲的tensorflow数据处理形式。下一次会讲到如何用代码来实现这种创建结构,处理结构的形式。例子2.
计算图纸
Tensorflow 首先要定义神经网络的结构, 然后再把数据放入结构当中去运算和 training.
因为TensorFlow是采用数据流图(data flow graphs)来计算, 所以首先我们得创建一个数据流流图, 然后再将我们的数据(数据以张量(tensor)的形式存在)放在数据流图中计算. 节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组, 即张量(tensor). 训练模型时tensor会不断的从数据流图中的一个节点flow到另一节点, 这就是TensorFlow名字的由来.
因为TensorFlow是采用数据流图(data flow graphs)来计算, 所以首先我们得创建一个数据流流图, 然后再将我们的数据(数据以张量(tensor)的形式存在)放在数据流图中计算. 节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组, 即张量(tensor). 训练模型时tensor会不断的从数据流图中的一个节点flow到另一节点, 这就是TensorFlow名字的由来.
Tensor 张量意义
张量(Tensor): * 张量有多种. 零阶张量为 纯量或标量 (scalar) 也就是一个数值. 比如 [1] * 一阶张量为 向量 (vector), 比如 一维的 [1, 2, 3] * 二阶张量为 矩阵 (matrix), 比如 二维的 [[1, 2, 3],[4, 5, 6],[7, 8, 9]] * 以此类推, 还有 三阶 三维的 ...
·例子2
这节课用代码的形式来编辑Tensorflow他的神经网络的结构。首先看我们做的结果是什么样的,这节课我们想要输出的是他每一次训练之后他的参数是多少,你看她每隔二十次训练我就输出一下他的参数像上次说的权重和偏置。我们想要做的这个东西就是要预测一个线性的直线也就是我们想要预测的是y=0.1x+0.3.我们最后输出的结果,你看他预测的第一个参数y=0.1x0.1已经非常接近0.1这个点了。后边也非常接近y=0.1x+0.3这个0.3。我们开始做这个练习。
学习资料:
相关代码
TF 2017 打造的新版可视化教学代码
Tensorflow 是非常重视结构的, 我们得建立好了神经网络的结构, 才能将数字放进去, 运行这个结构.
这个例子简单的阐述了 tensorflow 当中如何用代码来运行我们搭建的结构.
创建数据
首先, 我们这次需要加载 tensorflow numpy 两个模块, 并且使用 numpy 来创建我们的数据.
接着, 我们用 tf.Variable 来创建描述 y 的参数. 我们可以把 y_data = x_data*0.1 + 0.3 想象成 y=Weights * x + biases, 然后神经网络也就是学着把 Weights 变成 0.1, biases 变成 0.3.
搭建模型
计算误差
接着就是计算 y y_data 的误差:
传播误差
反向传递误差的工作就教给optimizer, 我们使用的误差传递方法是梯度下降法: Gradient Descent 让后我们使用 optimizer 来进行参数的更新.
训练
到目前为止, 我们只是建立了神经网络的结构, 还没有使用这个结构. 在使用这个结构之前, 我们必须先初始化所有之前定义的Variable, 所以这一步是很重要的!
接着,我们再创建会话 Session. 我们会在下一节中详细讲解 Session. 我们用 Session 来执行 init 初始化步骤. 并且, Session run 每一次 training 的数据. 逐步提升神经网络的预测准确性.






通信人家园 (https://www.txrjy.com/) Powered by C114