首页 文章
  • 1 votes
     answers
     views

    Keras到Pytorch模型的翻译和输入大小

    我正在关注Keras教程,并想在Pytorch中隐藏它,所以我正在进行翻译 . 我对这两者都不是很熟悉,特别是在输入尺寸参数上,尤其是最后一层 - 我需要另一个线性层吗?任何人都可以将以下内容翻译成Pytorch顺序定义吗? visible = Input(shape=(64,64,1)) conv1 = Conv2D(32, kernel_size=4, activation='relu')(v...
  • 1 votes
     answers
     views

    Tensorflow:需要为自定义操作定义哪些渐变?

    虽然有很多参考文献显示了如何注册渐变,但我仍然不太清楚需要定义什么样的渐变 . 一些类似的主题:How to register a custom gradient for a operation composed of tf operations How Can I Define Only the Gradient for a Tensorflow Subgraph? 好的,这是我的问题: 我有...
  • 0 votes
     answers
     views

    修改Tensorflow,Keras或PyTorch中的图层

    我希望修改tensorFlow中每一层的输出,然后以标准深度神经网络的格式传递到下一层(不一定是CNN): 假设这是在任何修改之前的前向传播期间的层的伪代码,并且X是输入特征矩阵: Prior Modification: Step 0: l0 = X Step 1: l1 = nonlin(np.dot(l0,syn0)) and Step 2: l2 = nonlin(np.dot(l1,syn...
  • 2 votes
     answers
     views

    Pytorch到Keras代码等价

    鉴于PyTorch中的代码如下,Keras的等价物是什么? class Network(nn.Module): def __init__(self, state_size, action_size): super(Network, self).__init__() # Inputs = 5, Outputs = 3, Hidden = 30 ...
  • 3 votes
     answers
     views

    神经网络立即过度拟合

    我有一个带有2个隐藏层的FFNN用于回归任务,几乎立即过度补充(历元2-5,取决于#hidden单位) . (ReLU,Adam,MSE,每层相同#个隐藏单位,tf.keras) 32个神经元: 128个神经元: 我将调整隐藏单元的数量,但是为了限制搜索空间,我想知道上限和下限应该是什么 . Afaik最好是拥有一个太大的网络并尝试通过L2-reg或dropout进行规范化,而不是降低网络的...
  • 11 votes
     answers
     views

    比使用Tensorflow和Keras的培训准确性更高的验证准确性

    我正在尝试使用深度学习来预测来自约会网站的15个自我报告属性的收入 . 我们得到的结果相当奇怪,我们的验证数据比我们的训练数据更准确,损失更低 . 这在不同大小的隐藏层中是一致的 . 这是我们的模型: for hl1 in [250, 200, 150, 100, 75, 50, 25, 15, 10, 7]: def baseline_model(): model = S...
  • 0 votes
     answers
     views

    神经网络:如果我的batch_size影响准确性,这意味着什么?

    我一直听说batch_size不会影响学习的准确性或质量 . 但在我的简单模型中,立即使用20,000的batch_size(总数据集250万)会导致NaN损失和0.004精度 . 将bath_size减少到2,000将使我损失4.10并且准确度为0.07,并且准确度在每个时期按预期适当地继续增加 . 那么:我的batch_size影响精度的事实是否意味着我的模型设置错误了? from keras...
  • 0 votes
     answers
     views

    应该在使用model.load_weights()之前运行model.compile(),如果模型只是略有改变,请说丢失?

    通过近24个时期的数据集进行培训和验证,一次间歇性地进行8个时期,并在每个时间间隔后累积保存权重 . 我观察到前16个时期的火车和测试损失不断下降,之后训练损失继续下降而测试损失上升所以我认为这是过度拟合的情况 . 为此我试图恢复训练,在16个时期之后保存的权重与超参数的变化说 increasing dropout_rate 一点 . 因此,我重新使用具有新丢失的密集和转换块来获得具有相同序列和可...
  • 3 votes
     answers
     views

    Keras警告:Epoch包含的不仅仅是`samples_per_epoch`样本

    我有大约6200个训练图像,我想使用 keras.preprocessing.image.ImageDataGenerator 类的 flow(X, y) 方法以下列方式扩充小数据集: train_datagen = ImageDataGenerator( rescale=1./255, shear_range=0.2, zoom_range=0.2...
  • 16 votes
     answers
     views

    ResNet:训练期间的准确率为100%,但使用相同数据的预测准确率为33%

    我是机器学习和深度学习的新手,为了学习目的,我尝试使用Resnet . 我试图过度填充小数据(3个不同的图像),看看我是否可以获得几乎0的损失和1.0的准确度 - 我做到了 . 问题是对 training 图像的预测(即用于训练的相同3个图像)不正确 . Training Images Image labels [1,0,0] , [0,1,0] , [0,0,1] My python co...
  • 0 votes
     answers
     views

    为什么我的CNN模型过度拟合?

    我正在使用Keras训练CNN模型,如下所示,用于OCR任务 . 它有46个课程,总共有78,000个例子 . 每个 class 都有相同的号码 . 例子 . 看到,验证错误正在上升,快速搜索显示该模型过度拟合 . 所以,我添加了dropout图层并删除了一些图层 . 我用它测试了它稍微限制了过度拟合,但在一些时代之后仍然模型过度 . 我测试了一些变化,但趋势是相似的,验证准确性似乎停在〜.02和...
  • 4 votes
     answers
     views

    损失与准确性之间的关系

    在训练CNN模型时,在每个时代实际上是否有可能减少损失和降低准确度?我在训练时得到以下结果 . 有人可以解释为什么会发生这种情况的可能原因吗? 谢谢!
  • 0 votes
     answers
     views

    使用Keras中的multi_gpu_model冻结图层

    我正在尝试微调Keras中修改过的InceptionV3模型 . 我按照this page上的示例"Fine-tune InceptionV3 on a new set of classes" . 所以我首先训练了使用以下代码添加到InceptionV3基本模型中的顶部密集层: model = Model(inputs=base_model.input, outputs=pre...
  • 0 votes
     answers
     views

    Deep-Dream - 加载通过转移学习获得的重新训练的初始模型

    我在this article之后使用 transfer learning 方法重新调整了 Inception V3 网络 . 为此,我删除了最终的网络层,并将数百张脸部图像输入网络 . 然后成功生成了一个新模型: inceptionv3-ft.model 现在我想加载这个模型并使用它的固定权重将我的面部作为'theme'应用于输入图像,如 google-dream . 为此,我使用 keras...
  • 0 votes
     answers
     views

    ResNet总是预测一个类

    我正在尝试在Keras Tensorflow中对Places-205数据集的选定子集进行传输学习,仅包含27个类别 . 我正在使用在ImageNet上预先训练过的InceptionV3,DenseNet121和ResNet50,并添加了几个额外的层来适应我的课程 . 如果模型是ResNet,我添加Flatten Dense进行分类,如果它是DenseNet或Inceptionv3,我添加Globa...
  • 0 votes
     answers
     views

    使用批量标准化时,更改模型输入大小并加载保存的模型权重

    我正在看这个github project . 特别是“fps_convert.py”文件 . 您不必看它来回答这个问题 . 它是一个使用Keras编写的卷积网络,并且有一个链接到 download the weights of a pre-trained model 以避免必须训练它需要很长时间 . 我设法让它工作,但模型定义了特定的输入大小 . 如果我更改输入大小,则无法再加载已预先训练的模型的...
  • -1 votes
     answers
     views

    转学习为什么删除最后隐藏的图层?

    通常在阅读有关转移学习的博客时会说 - 删除最后一层,或删除最后两层 . 也就是说,删除输出图层和最后隐藏图层 . 因此,如果转移学习也意味着改变成本函数,例如从交叉熵到均方误差,我知道你需要将最后一个输出层从1001层softmax值更改为输出浮点数的Dense(1)层,但是: 为什么还要更改最后一个隐藏图层? 如果使用Keras和其中一个具有imagenet权重的预定义CNN模型,最后...
  • 0 votes
     answers
     views

    在Keras中保存最佳重量和型号

    我正在使用带有Tensorflow后端的Keras API来训练DL模型 . 我正在使用ModelCheckPoint监控验证准确性,如果有改进,只存储权重 . 在这个过程中,我最终将模型体系结构存储为JSON和每个改进的权重 . 我最终加载了最好的权重和模型架构来预测测试数据 . 这是我的代码: filepath="weights-improvement-{epoch:02d}-{va...
  • 2 votes
     answers
     views

    训练的Keras模型的预测不正确

    我已经训练了50个时期的图像分类器CNN,并且在验证数据上获得了65%的准确度和64%的准确度 . 我的问题是当在单个样本(一个图像)上使用 model.predict 时,网络就像没有受过训练一样 . 我为model.predict提供了数千张图像,一次一个,平均分类精度仅为46% . 我尝试使用 model.save_model 并分别保存json模型和权重,但没有区别 . 我唯一想到的是为什...
  • -3 votes
     answers
     views

    验证精度始终可以与训练精度一样高吗?

    我有一个非常小的数据集(40个训练样例,10个验证示例,120个类),我在Keras中使用非常简单的模型获得了非常高的精度(仅限于batchnorm,flatten和dense layers) . 我的训练准确率为94-95%,验证准确率为76-78% . 我知道它过度拟合了,我尝试了一些东西 . 数据不是图像,所以我不能增加数据 . 我也无法添加数据,因为它是特定类型 . 我正在使用两个0.5级...
  • -2 votes
     answers
     views

    Keras CNN高训练精度/低验证精度/高测试精度

    我知道“高训练精度/低测试精度”的情况过度拟合 . 但是当我训练我的模型时 . 我的情况是 “高训练精度(0.94)/低验证精度(0.13)” . 我用这个模型测试新图像 . 测试结果很好(约0.89准确度) . 为什么?
  • 1 votes
     answers
     views

    第一个时代的验证和训练准确度很高[Keras]

    我正在训练一个包含2个类和53k图像的图像分类器,并使用keras使用1.3k图像进行验证 . 这是神经网络的结构: model = Sequential() model.add(Flatten(input_shape=train_data.shape[1:])) model.add(Dense(256, activation='relu')) model.add(Dropout(0.5)) mo...
  • 2 votes
     answers
     views

    图模型评估指标错误

    我正在尝试使用simple examples学习Keras GraphNN . 我有一个简单的示例数据集,包含784个功能,我想运行此示例: # graph model with one input and two outputs graph = Graph() graph.add_input(name='input', input_shape=(784,)) graph....
  • 6 votes
     answers
     views

    马修斯与Keras的相关系数

    我在Python 3中有一个Keras模型(Sequential): class LossHistory(keras.callbacks.Callback): def on_train_begin(self, logs={}): self.matthews_correlation = [] def on_epoch_end(self, batch, logs={}...
  • 8 votes
     answers
     views

    使用TensorFlow Keras后端的单线程影响模型精度和损耗

    Question 为什么将Keras的TensorFlow后端(intra_op_parallelism_threads和inter_op_parallelism_threads)中的线程数设置为1会对模型的准确性和丢失产生负面影响? Background 我使用Keras(2.1.6)训练MNIST CNN,TensorFlow(1.7.0)作为后端 . 我在AWS EC2实例中运行了一些培训,...
  • 0 votes
     answers
     views

    Keras进度条的准确度意味着什么?

    在Keras,你会有这样的事情: Epoch 1/1 60000/60000 [==============================] - 297s 5ms/step - loss: 0.7048 - acc: 0.7669 60000/60000 [==============================] - 179s 3ms/step Training Set: acc: 9...
  • 0 votes
     answers
     views

    从检查点加载TensorFlow模型并更改最后一层,错误

    我已经使用TensorFlow在两个类上训练了NN,现在我想将最后一层从两个输出更改为一个输出以进行回归并加载模型 . 不幸的是我收到此错误: INFO:tensorflow:向协调器报告错误:,Assign要求两个张量的形状匹配 . lhs shape = [50,1] rhs shape = [50,2] [[Node:save / Assign_11 =赋值[T = DT_FLOAT,_...
  • 2 votes
     answers
     views

    Keras:TimeDistributed InceptionV3错误

    当我在TimeDistributed包装器中尝试使用Inception时,我在Keras面临一个非常奇怪的错误 . 这段代码很简单,应该适用于许多模型或层,但奇怪的是, inception_v3 在预测时失败了: import numpy as np from keras.applications import inception_v3 from keras.layers import * fro...
  • 2 votes
     answers
     views

    如何在Keras中构建一个递归神经网络,其中每个输入首先通过一个层?

    我正在尝试在Keras中构建一个看起来像这样的神经网络: 其中x_1,x_2,...是经历相同变换f的输入向量 . f本身就是一个必须学习参数的层 . 序列长度n在实例之间是可变的 . 我在这里理解两件事情有困难: What should the input look like?我知道这对我有帮助吗? How do I pass each input vector through th...
  • 1 votes
     answers
     views

    Keras致密层形状不匹配

    我想在Keras中创建一个多类分类器,但是我在Dense层中得到了一个维度不匹配 . MAX_SENT_LENGTH = 100 MAX_SENTS = 15 EMBEDDING_DIM = 100 x_train = data[:-nb_validation_samples] y_train = labels[:-nb_validation_samples] x_val = data[-nb_...

热门问题