numpy.random.uniform( )
功能:从一个均匀分布[low,high)中随机采样,注意定义域是左闭右开,即包含low,不包含high.
randint原型:numpy.random.randint(low, high=None, size=None, dtype=‘l’),产生随机整数;
random_integers原型: numpy.random.random_integers(low, high=None, size=None),在闭区间上产生随机整数;
random_sample原型: numpy.random.random_sample(size=None),在[0.0,1.0)上随机采样;
random原型: numpy.random.random(size=None),和random_sample一样,是random_sample的别名;
rand原型: numpy.random.rand(d0, d1, …, dn),产生d0 - d1 - … - dn形状的在[0,1)上均匀分布的float型数。
randn原型:numpy.random.randn(d0,d1,…,dn),产生d0 - d1 - … - dn形状的标准正态分布的float型数。
np.random.normal( )正态分布
原型:numpy.random.normal(loc=0.0, scale=1.0, size=None)
loc:均值 scale:标准差 size:输出的shape
✅数据集 data[ ]
✅均方差函数 def MeanSquaredError( ):
✅一次梯度下降def step_gradient( ):
✅多次梯度下降def gradient_descent( )
✅主函数main( )
这个函数把python的变量类型转换成tensor,而这个value可以是tensor,numpy arrays(numpy 的数组),python list(python 列表)python的表量
tf.one_hot( ) indices = [0, 2, -1, 1] #输入数据(是个向量)的需要编码的索引是[0,2,-1,1] depth = 3 tf.one_hot(indices, depth, on_value=5.0, off_value=0.0, axis=-1) # output: [4 x 3] # [[5.0, 0.0, 0.0], # one_hot(0) 对位置0处的数据进行one_hot编码 # [0.0, 0.0, 5.0], # one_hot(2) 对位置2处的数据进行one_hot编码 # [0.0, 0.0, 0.0], # one_hot(-1) 对位置-1处的数据进行one_hot编码 # [0.0, 5.0, 0.0]] # one_hot(1) 对位置1处的数据进行one_hot编码 indices = [[0, 2], [1, -1]] #输入数据是个矩阵 depth = 3 tf.one_hot(indices, depth, on_value=1.0, off_value=0.0, axis=-1) # output: [2 x 2 x 3] # [[[1.0, 0.0, 0.0], # one_hot(0) 对位置(0,0)处的数据进行one_hot编码 # [0.0, 0.0, 1.0]], # one_hot(2) 对位置(0,2)处的数据进行one_hot编码 # [[0.0, 1.0, 0.0], # one_hot(1) 对位置(1,1)处的数据进行one_hot编码 # [0.0, 0.0, 0.0]]] # one_hot(-1) 对位置(1,-1)处的数据进行one_hot编码 from_tensor_slices功能:创建一个数据集,其元素是给定张量的切片。
python中的with用法及原理
tf.trainable_variables( )
功能:仅可以查看可训练的变量
nss类型的张是是量只需要传入Python语言的布尔类型数据,转换成rFlow内部布尔型法可下下返下回Numpy.array类型的数据,方便导出数据到系统的其他模块。
在TensorFlow中间,为了表达方便,一般把标量、向量、矩阵也统称为张量,不作区分,需要根据张量的维度数和形状自行判断在TensorFlow中间,为了表达方便,一般把标量、向量、矩阵也统称为张量,不作区分,需要根据张量的维度数和形状自行判断在T在TensorFlow中间,为了表达方便,一般把标量、向量、矩阵也统称为张量,不作区分,需要根据张量的维度数和形状自行判断ensorFlow中间,为了表达方便,一般把标量、向量、矩阵也统称为张量,不作区分,需要根据张量的维度数和形状自行判断