首页 > 编程知识 正文

mixmatch是拉夏贝尔吗,qualitative data例子

时间:2023-05-06 00:12:53 阅读:139351 作者:4986

MixMatch算法来源于mix match : aholisticapproachtosemi-supervised learning一文,客观地说,该文并不能严格地说是数据的扩展,而是将少量的数据训练模型但是,我认为这还可以归类为数据扩大的范畴。 扩展数据的目的是防止训练拟合以使模型在更大的数据集上也能获得良好的结果。 但是,与其他方法不同,我认为这种方法并不侧重于通过各种转换来增加数据集的数据量,其核心也在于在训练中隐式地扩展数据。

MixMatch的过程如下图所示。

1 .从数据集中随机选择一个Batch表示为a,对该Batch的数据进行通常的扩展,但不变更标签

2 .取出和a一样大小的Batch,用b表示。 此时,如果不考虑其Batch的label,进行k次随机扩展,将这些扩展后的数据发送给事先训练好的简单分类器,就会计算平均的分类概率,并使用温度Sharpen算法进行处理。 此时,得到batch B样本之一

这里的Sharpen算法是这样的,首先,Sharpen的公式如下。

其中t是被称为温度的超参,p是样本依赖于label的概率,Sharpen算法有助于修正模型并给出低熵的判断。 这里不是主要内容,所以不说明。 也就是说,此时,通过Sharpen后,可以得到各个扩展数据通过分类器得到的预测label。

3 .此时,Batch A数据扩大后,有确定的标签,但经过第二阶段的处理后,可获得k个Batch。 而且,该Batch的label是预测的,可以看出到这个阶段为止数据已经扩大了; 然后,将a和这k个Batch随机排序,从随机排序后的数据中选择一个Batch标记为c,对c和原来的a进行MixUp处理。 关于MixUp方法,在前文中进行了详细叙述,但在此不进行说明。

4 .然后,将排序后的数据挑选出非a的东西进行MixUp,即可得到新的Batch D。 用以下公式计算d、a和C mixup的结果

5 .针对所述数据集分别计算loss

4 .最后计算混合loss

这里的lambda超参,文章推荐100

然后进行代码分析:

importtorchimportnumpyasnpimportimgaugasiaimportimgaug.augmentersasiaaadefget _ augment or () 3360 seq=IAA.sequential IAA IAA.Gaussianblur ) sigma=(0,3.0 ) defaugment ) images ) :returnseq.augment ) images 1) returnaugmentdefsharpes t ) :temp=x**(1/t ) returntemp/temp.sum(axis=1,keepdims=True ) def miming alpha (: beta=NP.random ) - alpha ) x=beta * x1 (1- beta ) x2y=beta * y1 )1- beta ) y2returrar model,augment_fn,T=0.5,K=2, alpha=0.75 ) :XB=augment_fn(x ) ub=[augment_fn(u ) u ) for _ in range(K ) k]QB=sharpen ) sum (map (map ) axis=0) uy=NP.concatenate ) [QBfor_inrange ) ],axis=0) indices=NP.random.shuffle (NP.arange (len ) axices axis=0) [indices] X,p=mixup(XB,wx ) :len(XB ) ],y,wy ) :len(XB ) ],alpha ) u,q=mixup qclassmixmatchloss (torch.nn.module ) :def_init_ ) self, lambda_u=100 ) : self.lambda _ u=lambda _ use lf.xent=torch.nn.crossentropyloss () self.MSE=torch . (x ) x,u,p,q ) :x_=NP.concatenate([x,U],axis=1) y_=NP.concatenate ),axis=1) )

根据实际操作,作者分析了具体的某些改进对模型的贡献

我定性地说明这里的情况:

我觉得这里的方法实际上类似于自我接触的正则化。 这相当于告诉模型像源这样的数据应该给予相同的评价。 从逻辑上讲,这是对人类小样本学习的映射。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。