『损失函数』Siamese Network孪生神经网络

​ 着这种方法中,训练时输入一对图片,标签为0或者1,0表示图片属于不同的人,1表示图片属于相同的人。训练的目标在于使得属于同一个人的图片距离尽可能小,属于不同人的图片距离尽可能大。与triplet loss相同,这种方法同样面临样本对爆炸的可能。假设有10个人,每个人10张图片,则共有 900 ( C 10 1 C 10 2 + C 10 2 C 10 1 ) 900(C^1_{10}C^2_{10}+C^2_{10}C^1_{10}) 个样本对。(原文链接:https://blog.csdn.net/wxb1553725576/article/details/80602786)

为了约束网络提取出来的特征具有紧凑性,contrastive loss 和 triplets loss 被提出来了。contrastive loss的思想是最小化一对同类样本特征的距离,最大化一对不同样本特征之间的距离。Triplets loss则把一对变成3个。contrastive loss 和 triplets loss 需要把样本两两配对或三三组合起来,导致样本急剧增大,加长了训练的时间,提高训练难度。(原文链接:https://blog.csdn.net/qq_24548569/article/details/89676753)

在这里插入图片描述
在这里插入图片描述

发布了29 篇原创文章 · 获赞 45 · 访问量 5040

猜你喜欢

转载自blog.csdn.net/sinat_39783664/article/details/104338469