代码编织梦想

2018

Deep Feature Factorization For Concept Discovery

code: https://paperswithcode.com/paper/deep-feature-factorization-for-concept

摘要: 摘要我们提出了深度特征分解(DFF),一种能够在一个图像或一组图像中定位相似的语义概念的方法。我们使用DFF来深入了解深度卷积神经网络的学习特征,其中我们检测特征空间中的层次聚类结构。这被可视化为热图,它突出了一组图像中的语义匹配区域,揭示了网络“感知”为相似的东西。DFF也可以用来执行共分割和共定位,我们报告了这些任务的最新结果。
在这里插入图片描述
我们的主要贡献是引入了深度特征分解作为语义概念发现的一种方法,它既可以用于洞察CNN学习到的表示,也可以用于定位图像中的对象和对象部分。我们报告了在几个数据集和CNN架构上的结果,显示了我们的方法在各种设置中的有效性。

2019

DELTA: DEEP LEARNING TRANSFER USING FEATURE MAP WITH ATTENTION FOR CONVOLUTIONAL NETWORKS

code: https://paperswithcode.com/paper/delta-deep-learning-transfer-using-feature

摘要: 通过微调预先训练好的超大数据集的神经网络,如ImageNet,可以显著加速训练,而精度经常受到新目标任务有限的数据集大小的限制。为了解决这一问题,研究了一些以起点为参考(SPAR)约束目标网络外层权值的正则化方法。在本文中,我们提出了一种新的正则化迁移学习框架,即利用带注意的特征图进行深度学习迁移。DELTA的目标不是约束神经网络的权值,而是保留目标网络的外层输出。具体来说,除了最小化经验损失外,DELTA还通过约束一个特征映射的子集来对齐两个网络的外层输出。我们用最先进的算法来评估DELTA,包括L2和L 2 -SP。实验结果表明,该方法对新任务的处理准确率优于这些基线。

在这里插入图片描述

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/weixin_42990464/article/details/127904786

卷积神经网络传播过程中感受野的理解以及feature map size 、receptive field size的计算(代码)-爱代码爱编程

候补:以下介绍的是理论感受野;其实有效感受野因训练方式有关(一般比理论感受野小) 今天看论文时偶然提到了感受野这个名词,这个词在初学卷积神经网络时就已经解除了,但是还没有对其有深入的了解 ,因此在网上百度了一些有关感受野的相关的资料,并自己亲自跑了下计算网络传播过程中感受野大小和feature map大小的代码,感觉理解的更加深入了,下面记录下过程:

[cnn] 卷积神经网络中feature map和卷积核个数的概念解释_猿球崛起的博客-爱代码爱编程_feature map数量

feature map(下图红线标出) 即:该层卷积核的个数,有多少个卷积核,经过卷积就会产生多少个feature map,也就是下图中 `豆腐皮儿`的层数、同时也是下图`豆腐块`的深度(宽度)!!这个宽度可以手动指定,一般网络越深的地方这个值越大,因为随着网络的加深,feature map的长宽尺寸缩小,本卷积层的每个map提取的特征越具有代表性(精华部

深度学习经典论文及开源代码-爱代码爱编程

目录 综述 Deep Learning 图像分类 LeNet AlexNet ZFNet Inception系列 VGG ResNet DenseNet ResNeXt SENet EfficientNet 目标检测 RCNN OverFeat SPP Fast RCNN Faster RCNN R-FCN FPN

【deep learning】vgg16之feature map学习笔记_crazycoder1992的博客-爱代码爱编程

最近学习BeautyGAN需要用到VGG16提取的feature map进行训练,简单学习了一些关于VGG16和feature map相关的内容。 VGG16网络结构 VGG16总共有16层,13个卷积层和3个全连接层,第一次经过64个卷积核的两次卷积,第二次经过两次128个卷积核卷积,第三次经过三层256卷积核卷积,第四次经过512个卷积核,每次卷积

cnn可视化 feature map 的四种方法-爱代码爱编程

参考论文:《How convolutional neural network see the world - A survey of convolutional neural network visualization

Pytorch从入门到放弃(8)——可视化FeatureMap(特征图)-爱代码爱编程

在Pytorch的实际使用中,有时我们不仅要提取模型的中间层特征,甚至有时我们需要可视化模型的中间层特征,特别是在写论文的过程中,即可以补充一下文章的篇幅,也可以虎一虎外行人,让他觉得好牛逼好高大上啊。下面开始进入主题: 其实很简单,想要哪一层的特征图直接提取那一层的输出即可,并将那一层的特征图可视化即可。首先,我们需要看一下网络都有哪些层,这个我在Py

CVPR 2020代码开源的论文最全合集-爱代码爱编程

前言 之前Amusi整理了1467篇CVPR 2020所有论文PDF下载资源,详见:全在这里了! CVPR2020-Code CVPR 2020 论文开源项目合集,同时欢迎各位大佬提交issue,分享CVPR 2020开源项目 关于往年CV顶会论文(如CVPR 2019、ICCV 2019、ECCV 2018)以及其他优质CV论文和大盘点,详见:

遥感目标检测相关 论文|代码|数据集 汇总-爱代码爱编程

ref:GitHub - SJTU-Thinklab-Det/DOTA-DOAI: This repo is the codebase for our team to participate in DOTA related competitions, including rotation and horizontal detection. Ab

阅读笔记——HRank: Filter Pruning using High-Rank Feature Map-爱代码爱编程

目录 概述方法实验和指标可能的问题 概述 这篇通道裁剪论文同样提到,对于权重裁剪在特定硬件上可以获得加速,但是通用性不够。相对的,通道裁剪就没有这样的问题。因此文章聚焦于通道裁剪达到模型压缩(降低参数量)和加速(减少计算 FLOPs)的效果。 同时文章将通道裁剪方法分为两类: 一类是基于 CNN 网络内在性质做裁剪,这类裁剪方法不需要修改

FPN论文解读 和 代码详解-爱代码爱编程

FPN论文解读 和 代码详解 论文地址:[Feature Pyramid Networks for Object Detection](1612.03144v2.pdf (arxiv.org)) 代码地址:[Detectron/FPN](Detectron/FPN.py at 8170b25b425967f8f1c7d715bea3c5b8d9536c

【毕业设计】深度学习试卷批改系统 - opencv python 机器视觉_caxiou的博客-爱代码爱编程

文章目录 0 简介1 项目背景2 项目目的3 系统设计3.1 目标对象3.2 系统架构3.3 软件设计方案 4 图像预处理4.1 灰度二值化4.2 形态学处理4.3 算式提取4.4 倾斜校正4.5 字符分割