tensorflow实现逻辑回归模型
逻辑回归模型 逻辑回归是应用非常广泛的一个分类机器学习算法,它将数据拟合到一个logit函数(或者叫做logistic函数)中,从而能够完成对事件发生的概率进行预测。import numpy as npimport tensorflow as tfimport matplotlib.pyplot as pltfrom tensorflow.examples.tutorials.mnist import input_data#下载好的mnist数据集存在F:/mnist/d...
2024-01-10tensorflow更改变量的值实例
如下所示:from __future__ import print_function,divisionimport tensorflow as tf#create a Variablew=tf.Variable(initial_value=[[1,2],[3,4]],dtype=tf.float32)x=tf.Variable(initial_value=[[1,1],[1,1]],dtype=tf.float32,validate_shape=False)init_op=tf.global_variabl...
2024-01-10Tensorflow中的笛卡尔积
在Tensorflow中有什么简单的方法可以像itertools.product一样做笛卡尔积吗?我想获得两个张量(a和b)的元素组合,在Python中可以通过itertools作为list(product(a,b))。我正在Tensorflow中寻找替代方案。回答:我将在此假定a和b均为一维张量。为了得到两者的笛卡尔积,我会用的组合tf.expand_dims和tf.tile:a = tf.const...
2024-01-10tensorflow自定义激活函数实例
前言:因为研究工作的需要,要更改激活函数以适应自己的网络模型,但是单纯的函数替换会训练导致不能收敛。这里还有些不清楚为什么,希望有人可以给出解释。查了一些博客,发现了解决之道。下面将解决过程贴出来供大家指正。1.背景之前听某位老师提到说tensorflow可以在不给梯度函数的基础...
2024-01-10tensorflow训练好的vgg16
想跑一段tensorflow?!想试一试传说中vgg16的神奇?真是太难了。以下是我的一段艰辛过程,阅知即可。我的主要代码来之与https://blog.csdn.net/helei001/article/details/53159690,将第一个链接下的gitub下好。可以看到关于vgg16的有两个文件 text_vgg16.py和vgg16.py还有一个utils.py文件也是作者这个程序里面要用的,但是...
2024-01-10Tensorflow模型并行性错误
我实际上想在tensorflow中自动实现模型并行性。Tensorflow模型并行性错误我稍微改正了版本1.3中放置代码(simple_placer.cc)中张量流的代码。然而,在MNIST的情况下,安置工作是有效的,但是它在开始时有错误。InvalidArgumentError (see above for traceback): Trying to access resource located in device /job:worker/replica:0/task:1/cpu:...
2024-01-10tensorflow 打印内存中的变量方法
法一:循环打印模板for (x, y) in zip(tf.global_variables(), sess.run(tf.global_variables())): print '\n', x, y实例# coding=utf-8import tensorflow as tfdef func(in_put, layer_name, is_training=True): with tf.variable_scope(layer_name, reuse=tf.AUTO_REUSE): bn = tf.con...
2024-01-10tensorflow 分类损失函数使用小记
多分类损失函数label.shape:[batch_size]; pred.shape: [batch_size, num_classes]使用 tf.keras.losses.sparse_categorical_crossentropy(y_true, y_pred, from_logits=False, axis=-1)- y_true 真实值, y_pred 预测值- from_logits,我的理解是,如果预测结果经过了softmax(单次预测结果满足和为1)就使用设为`False`, 如果预...
2024-01-10浅谈tensorflow中几个随机函数的用法
如下所示:tf.constant(value, dtype=None, shape=None) 创建一个常量tensor,按照给出value来赋值,可以用shape来指定其形状。value可以是一个数,也可以是一个list。 如果是一个数,那么这个常亮中所有值的按该数来赋值。tf.random_normal(shape,mean=0.0,stddev=1.0,dtype=tf.float32) tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=t...
2024-01-10Tensorflow学习笔记No.11
图像定位图像定位是指在图像中将我们需要识别的部分使用定位框进行定位标记,本次主要讲述如何使用tensorflow2.0实现简单的图像定位任务。我所使用的定位方法是训练神经网络使它输出定位框的四个顶点的坐标,通过这四个坐标来定位需要识别对象的位置。数据集:https://pan.baidu.com/s/1dv-r19KixYhA1CfX2...
2024-01-10TensorFlow实现Softmax回归模型
一、概述及完整代码对MNIST(MixedNational Institute of Standard and Technology database)这个非常简单的机器视觉数据集,Tensorflow为我们进行了方便的封装,可以直接加载MNIST数据成我们期望的格式.本程序使用Softmax Regression训练手写数字识别的分类模型.先看完整代码:import tensorflow as tf from tensorflow.examples.tutorials.mnist ...
2024-01-10tensorflow实现对图片的读取的示例代码
tensorflow里面给出了一个函数用来读取图像,不过得到的结果是最原始的图像,是咩有经过解码的图像,这个函数为tf.gfile.FastGFile(‘path', ‘r').read()。如果要显示读入的图像,那就需要经过解码过程,tensorflow里面提供解码的函数有两个,tf.image.decode_jepg和tf.image.decode_png分别用于解码jpg格式和png格式...
2024-01-10解决tensorflow 释放图,删除变量问题
问题,在一个程序内构建好了一个图,运行完之后想重新使用这个图进行计算,或者想同时在train完的时候做test,就会提示***变量已存在。解决办法:待一个图运行完之后加上tf.reset_default_graph来重置默认的图。补充知识:tensorflow 张量插入或者删除的办法我就废话不多说了,大家还是直接看代码吧~...
2024-01-10tensorflow 初始化未初始化的变量实例
今日在Stack Overflow上看到一个问如何只初始化未初始化的变量,有人提供了一个函数,特地粘贴过来共大家品鉴:import tensorflow as tf def initialize_uninitialized(sess): global_vars = tf.global_variables() is_not_initialized = sess.run([tf.is_variable_initialized(var) for var in global_vars]) not_i...
2024-01-10基于Tensorflow一维卷积用法详解
我就废话不多说了,大家还是直接看代码吧!import tensorflow as tfimport numpy as npinput = tf.constant(1,shape=(64,10,1),dtype=tf.float32,name='input')#shape=(batch,in_width,in_channels)w = tf.constant(3,shape=(3,1,32),dtype=tf.float32,name='w')#shape=(filter_width,in_channels,...
2024-01-10关于Tensorflow 模型持久化详解
当我们使用 tensorflow 训练神经网络的时候,模型持久化对于我们的训练有很重要的作用。如果我们的神经网络比较复杂,训练数据比较多,那么我们的模型训练就会耗时很长,如果在训练过程中出现某些不可预计的错误,导致我们的训练意外终止,那么我们将会前功尽弃。为了避免这个问题,我们就...
2024-01-10Tensorflow 实现分批量读取数据
之前的博客里使用tf读取数据都是每次fetch一条记录,实际上大部分时候需要fetch到一个batch的小批量数据,在tf中这一操作的明显变化就是tensor的rank发生了变化,我目前使用的人脸数据集是灰度图像,因此大小是92*112的,所以最开始fetch拿到的图像数据集经过reshape之后就是一个rank为2的tensor,大小是92*11...
2024-01-10Tensorflow实现部分参数梯度更新操作
在深度学习中,迁移学习经常被使用,在大数据集上预训练的模型迁移到特定的任务,往往需要保持模型参数不变,而微调与任务相关的模型层。本文主要介绍,使用tensorflow部分更新模型参数的方法。1. 根据Variable scope剔除需要固定参数的变量 def get_variable_via_scope(scope_lst): vars = [] for sc in scope_lst:...
2024-01-10TensorFlow tensor的拼接实例
TensorFlow提供两种类型的拼接:tf.concat(values, axis, name='concat'):按照指定的已经存在的轴进行拼接tf.stack(values, axis=0, name='stack'):按照指定的新建的轴进行拼接t1 = [[1, 2, 3], [4, 5, 6]]t2 = [[7, 8, 9], [10, 11, 12]]tf.concat([t1, t2], 0) ==> [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]...
2024-01-10TensorFlow实现从txt文件读取数据
TensorFlow从txt文件中读取数据的方法很多有种,我比较常用的是下面两种:【1】np.loadtxtimport numpy as np data=np.loadtxt('ex1data1.txt',dtype='float',delimiter=',')X_train=data[:,0]y_train=data[:,1]【2】pd.read_csvimport pandas as pddata=pd.read_csv("ex2data2.txt",names=['x1','x2','y'])dat...
2024-01-10tensorflow 获取模型所有参数总和数量的方法
实例如下所示:from functools import reducefrom operator import muldef get_num_params(): num_params = 0 for variable in tf.trainable_variables(): shape = variable.get_shape() num_params += reduce(mul, [dim.value for dim in shape], 1) return num_params以上这篇tensorf...
2024-01-10tensorflow 大于某个值为1,小于为0的实例
我就废话不多说了,大家还是直接看代码吧~one = tf.ones_like(label)zero = tf.zeros_like(label)label = tf.where(label <0.5, x=zero, y=one)补充知识:TensorFlow中获取大于零的元素集合a为tensoridx = tf.where(a > 0)output = tf.gather_nd(a, idx)以上这篇tensorflow 大于某个值为1,小于为0的实例就是小编分享给大家的全部内容了,希望...
2024-01-10tensorflow 输出权重到csv或txt的实例
实例如下所示:import numpy as npW_val, b_val = sess.run([weights_tensor, biases_tensor])np.savetxt("W.csv", W_val, delimiter=",")np.savetxt("b.csv", b_val, delimiter=",")以上这篇tensorflow 输出权重到csv或txt的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。...
2024-01-10tensorflow使用较为底层的方式复现VGG16
一般在网络上看到一些专业人士写的demo,要么看不懂,要么封装特别好使可移植性减弱。为了巩固自己对经典网络的认识,我觉得用tensorflow以及tf.nn集成的库对经典网络进行复现,VGG作为最经典网络之一成为我的首要选择。这是论文中的结构示意图,绿框中的是最后的网络结构,论文中提及,每一个...
2024-01-10Tensorflow全局设置可见GPU编号操作
笔者需要tensorflow仅运行在一个GPU上(机器本身有多GPU),而且需要依据系统参数动态调节,故无法简单使用CUDA_VISIBLE_DEVICES。一种方式是全局使用tf.device函数生成的域,但设备号需要在绘制Graph前指定,仍然不够灵活。查阅文档发现config的GPUOptions中的visible_device_list可以定义GPU编号从visible到virtual的映...
2024-01-10