转载R-CNN --> FAST-RCNN --> FASTER-RCNN

R-CNN:(1)输入测试图像(2)利用selective search算法在图像中从上到下提取2000个左右的Region Proposal(3)将每个Region Proposal缩放(warp)成227x227的大小并输入到CNN,将CNN的fc7层的输出作为特征(4)将每个Region Proposal提取的CNN特征输入到SVM进行分类(5)对于SVM分好类的Region Proposal做边界回归,用bounding box回归值矫正原来的建议窗口,生成预测窗口坐标缺陷:
分类: 其他 发布时间: 10-14 22:34 阅读次数: 0

SPPNet(空间金字塔池化)与RoI Pooling

转载自:https://www.bilibili.com/video/BV1st411P7DW比例池化特征共享 第一个池化层,将feature map分成4x4份然后池化,第二个池化层将feature map 分2x2份,第三个池化层为1x 1。总共输出16+4+1个数就是要输出的21个特征。 对输入图像提取特征,然后在特征层进行区域划分。由于输入大小可变,spp训练的时候就可以把训练图片按比例缩放。(相同的图片缩放至不同的尺度,相当于扩充了数据集) ...
分类: 其他 发布时间: 10-14 22:33 阅读次数: 0

Focal loss解决one-stage目标检测中正负样本比例严重失衡的问题

转载自:https://www.cnblogs.com/king-lps/p/9497836.htmlFocal Loss理解 1. 总述Focal loss主要是为了解决one-stage目标检测中正负样本比例严重失衡的问题。该损失函数降低了大量简单负样本在训练中所占的权重,也可理解为一种困难样本挖掘。2. 损失函数形式Focal loss是在交叉熵损失函数基础上进行的修改,首先回顾二分类交叉上损失:  是经过激活函数的输出,所以在0-1之间。可见普通的交叉熵对于正样本而.
分类: 其他 发布时间: 10-14 22:33 阅读次数: 0

Faster RCNN和SSD代码解读

https://blog.csdn.net/weixin_41693877/category_10154270.html
分类: 其他 发布时间: 10-14 22:33 阅读次数: 0

目标检测之非极大值抑制

基本思路:从待检测目标中先按照分类置信度,找一个最可信的框。然后判断其他框和它的交并比(IoU),如果大于阈值TH,说明相似,抑制掉就好了。1.局部最大搜索目标检测问题的老大难问题之一就是如何提高召回率(所有标注的真实边界框有多少被预测出来了)。         即recall=正检/(正检+未检)这就导致最后输出的边界框数量往往远大于实际数量,而这些模型的输出边界框往往是堆叠在一起的。因此,我们需要NMS从堆叠的边框中挑出最好的那个。  2.何时使用NMS? When NMS?
分类: 其他 发布时间: 10-14 22:32 阅读次数: 0

高光谱数据

1:Washington DC Mal,Indian Pine等https://engineering.purdue.edu/~biehl/MultiSpec/hyperspectral.html2:Indian Pines,Salinas,Pavia Centre and University,Cuprite等http://www.ehu.eus/ccwintco/index.php?title=Hyperspectral_Remote_Sensing_Scenes3:hydice的...
分类: 其他 发布时间: 10-14 22:32 阅读次数: 0

高光谱方法及代码

https://xueshu.baidu.com/usercenter/paper/show?paperid=197w00b0nw0k0cv01a5g06k075498447&site=xueshu_sehttps://blog.csdn.net/haoji007/article/details/81154338https://cdmd.cnki.com.cn/Article/CDMD-10701-1017297118.htmhttp://d.wanfangdata.com.cn/the
分类: 其他 发布时间: 10-14 22:32 阅读次数: 0

Linux常见命令汇总(累积中。。。)

转载自:https://blog.csdn.net/shanglianlm/article/details/848491931 Linux下统计当前文件夹下的文件个数、目录个数统计当前文件夹下文件的个数,包括子文件夹里的ls -lR|grep "^-"|wc -l1统计文件夹下目录的个数,包括子文件夹里的ls -lR | grep "^d" | wc -l1统计当前文件夹下文件的个数ls -l | grep "^-" | wc -l1统计当前文件夹下目录的个
分类: 其他 发布时间: 10-14 22:31 阅读次数: 0

faster rcnn全过程

转载自:https://www.cnblogs.com/king-lps/p/8995412.html总结自论文:Faster_RCNN:https://arxiv.org/pdf/1506.01497.pdf,与Pytorch代码:https://github.com/chenyuntc/simple-faster-rcnn-pytorch本文主要介绍代码最后部分:trainer.py 、train.py , 首先分析一些主要理论操作,然后在代码分析里详细介绍其具体实现。首先是训练与测试的过程图.
分类: 其他 发布时间: 10-14 22:31 阅读次数: 0

ModuleNotFoundError: No module named ‘zmq‘

启动visdom.server时报错:ModuleNotFoundError: No module named 'zmq' pip install zmq ,安装报同样的错误 pip list显示已安装,所以只能是版本不对或者不是python 版的pip uninstall zmq (卸载)pip install pyzmq(安装python 版本即可)...
分类: 其他 发布时间: 10-14 22:31 阅读次数: 0

正则化为什么可以防止过拟合

正则化方法:防止过拟合,提高泛化能力转载文章:https://www.cnblogs.com/alexanderkun/p/6922428.html在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出来的网络过拟合了训练集,对训练集外的数据却不work。为了防止overfitting,
分类: 其他 发布时间: 10-14 22:30 阅读次数: 0

cs231_n3.2优化

首先搞清楚三个概念及其相互关系(计算机视觉的基本任务): 分类器:线性函数/神经网络/卷积神经网络---实际学习的是参数集W(也可以理解为学习每个类别的模板) 损失函数:评估得到的W的好坏 如Li=f(xi,W)-yi f为预测标签,yi是真实标签 f=Wx (最)优化:寻找能使得损失函数值最小化的参数W的过程(寻找最优的W)最优化 Optimization策略#1:一个差劲的初始方案:随机搜索策略#2:随机本地搜索策略#3:跟随梯度:1 利用有限差值计算...
分类: 其他 发布时间: 10-14 22:30 阅读次数: 0

cs231_n3.1_Loss_Function

线性分类器可以解释为每个种类的学习模板,对图里的每个像素,以及10个分类里的每一项,矩阵W都有一些对应项,告诉我们那个像素对那个分类有多少影响。也就是说矩阵w里的每一行,都对应一个分类模板,如果我们揭开这些行的值(成图片的大小),那么每一行又分别对应一些权重,每个图像像素值和对应那个类别的一些权重,将这行分解回图像的大小,我们就可以可视化学到的每个类的模板。还有一种对线性分类器的解释是,学习像素在高维空间的一个线性决策边界,其中高维空间就对应了图片能取到的像素密度值。 ...
分类: 其他 发布时间: 10-14 22:30 阅读次数: 0

cs231_n4.1_反向传播

1. 反向传播是利用链式法则递归计算表达式梯度的方法。2. 反向传播的直观理解:反向传播是一个优美的局部过程。在整个计算线路图中,每个门单元都会得到一些输入并立即计算两个东西:这个门的输出值,和其输出值关于输入值的局部梯度。链式法则指出,门单元应该将回传的梯度乘以它对其的输入的局部梯度,从而得到整个网络的输出对该门单元的每个输入值的梯度。3. 模块化:Sigmoid例子 任何可微分的函数(加/减/乘方等)都可以看做门,可以将多个门组合成一个门,也可以根据需要将一个函数分拆成...
分类: 其他 发布时间: 10-14 22:30 阅读次数: 0

cs231_n4.2神经网络

反向传播回顾背景模型 SVM损失/softmax损失 整体损失函数 目标 找到使得L最小的W。为了找到W,需要求L在W方向上的梯度。 反向传播反向传播是指在神经网络中,将上层节点的梯度值进行反向地传播,进而求解整个网络节点上的梯度,可以递归地调用链式法则,来计算图中每个变量的梯度。 整个网络的输出节点的梯度值为1。对于中间节点来说,它的输出部分会接收来自上层节点的梯度值。该节点中所有的输入都有对应的局...
分类: 其他 发布时间: 10-14 22:29 阅读次数: 0

cs231_n5.2卷积神经网络

CNN通常由卷积层,池化层和全连接层堆叠而成,卷积层之后常使用激活函数(例如Relu)对其输出进行处理。CNN能够保留输入的空间结构。注意:如果没有激活函数的话,多层网络叠加在一起,相当于一个等价的线性方程,无法解决线性不可分的问题(非线性激活增加了网络的表达能力)。卷积操作:将filter在x上进行滑动,计算出每一个空间定位时的点积结果。也就是将filter的每个位置元素和与之对应图像区域region的像素值相乘,即,b为偏置。(W是和x同样大小的图像块,滑动filter可以获得整个feature
分类: 其他 发布时间: 10-14 22:29 阅读次数: 0

谈谈激活函数以零为中心的问题

今天在讨论神经网络中的激活函数时,陆同学提出 Sigmoid 函数的输出不是以零为中心的(non-zero-centered),这会导致神经网络收敛较慢。关于这一点,过去我只是将其记下,却并未理解背后的原因。此篇谈谈背后的原因。神经元 图片来自:https://zhuanlan.zhihu.com/p/25110450如图是神经网络中一个典型的神经元设计,它完全仿照人类大脑中神经元之间传递数据的模式设计。大脑中,神经元通过若干树突(dendrite)的突触(synapse),接受其他神经元.
分类: 其他 发布时间: 10-14 22:29 阅读次数: 0

stay_foolish_stay_hungry(没事多看看)

http://noahsnail.com/2018/05/24/2018-05-24-Unbroken/https://www.jianshu.com/u/7731e83f3a4e
分类: 其他 发布时间: 10-14 22:29 阅读次数: 0

同方向好的博主

https://blog.csdn.net/shanglianlm
分类: 其他 发布时间: 10-14 22:28 阅读次数: 0

为什么有的人讨人喜欢?本质上是亲和力吧,或者说不以自我为中心

从小就觉得,自己资质一般,所以没想过要非常富有,优秀。但是,总觉得自己不管多少岁,多要活得像个少年,有冲劲,要眼里有光。有的人说话幽默,并且能理解别人,说出来的话如沫春风,他的情绪,对生活的态度往往能感染到我们。有的人说话刻薄冷漠,无时无刻不在秀优越感。如果我们想交到真心的朋友,有良好的朋友圈,那一定注意自己的言行,真心为别人考虑。在大事上精明,小事糊涂。性格决定命运,也决定人际关系。活得真实,不去伪装,接受自己的不完美,不代表不去改变。跟着希望跟着光,让宽容,豁达,善良,果敢,善于倾听,会
分类: 其他 发布时间: 10-14 22:28 阅读次数: 0