图像算法一些心得

看了写论文和博客,发现算法实现过程中,有三大难点:

1 图像的复原

在经过一些列计算以后,最后一步就是把数据恢复成图片。这一步很头疼,不同的算法恢复的方式不同。

他不是简单的normalize恢复到0-255之间就行了,或者convertscaleabs就行了(有的可行,但是一个图,·配置一个alpha和beta,其他的图就行不了)。往往一个算法配置某个特定的回复方法。

2 何时用饱和运算

饱和运算就是 但是unit8类型时候,当超过255或者小于0,会进行一个数据处理。什么时候用呢?一般在计算之初会把数据类型变成float32(变成这个类型的原因有很多,包括加速和opencv内在的问提),有的会在图像复原的时候,变成uint8,有的算法在中间设计到uint8的转化,为了减少运算用的内存吗?不太懂。

3 损失信息填补 

计算时候,经常遇到小于等于0的数据或者大于255的的数据,或者别的情况。提到他的方法很多,比如小于等于0的,都用0或者0.01代替,或者用个f(x)+b来代替。

这三个问题,如何做选择?寻规道具的做,是没问题,但是就像弄额究竟。

还有就是常熟量的选择问题,很多都是给的经验值。已经有了很多深度学习模型去优化常熟量的方法。这个过程我感觉有点像无监督学习,就像人脸识别一样,也有很多模型了。

猜你喜欢

转载自blog.csdn.net/weixin_39875161/article/details/104060804