首页 > 编程知识 正文

2019安康杯竞赛活动主题主题,2019化学竞赛金牌名单

时间:2023-05-03 17:24:35 阅读:12754 作者:3454

IGARSS2019竞赛总结任务介绍任务定义评价指标模型详细数据处理调参语义分割高度预测总体收获知识心理能力

任务介绍任务定义

IGRSS2019竞赛1有四门课程。 我们利用路线遥感图像语义分割和高度预测具体为RGB图像和MSI(8通道多波段图像)进行逐像素语义预测和高度预测。 其中高度预测是比较新的任务,与自然图像中的深度预测任务有点相似。

贴上图,直观地表示为:

评价指标语义分割和高度预测评价指标:

http://www.Sina.com/http://www.Sina.com/(这基本上我知道如何计算,所以不再详细说明。 如果不知道,请参考参考链接)语义分割:(假设语义分割正确)如果高度预测值与实际高度之间的误差小于1米,则预测正确; 在模型的详细数据处理上我们在这方面没有浪费太多的时间,所以觉得这些工作没有什么意义,但最终证明,我们的想法有点幼稚,很多最后上榜的团队在数据增强方面做得足够细致这其实也是能力啊。 我并不不服。

我们主要是对mIOU2扩展机型的鲁棒性。

其他:边界处理、样本删除等反而会降低模型的性能,在做任何调整之前,必须考虑其背后的含义。

调参模特调参对模特性能的影响也很大!

高度预测:原则上,batch越大,模型性能越好。 (但是GPU有限啊) )对于图像简单进行旋转、翻转等变换,以此来增加训练数据样本语义分割任务,反卷积模式效果很好; 但是,高级预测反而上采样更有效(调参过程是必不可少的。 不太规则);批大小:优化算法、初始学习率、学习率衰减等也影响模型的性能;解码类型:损耗函数发生了重大更改,模型的收敛方向和目标也发生了完全更改。 (损失函数的变更可以说是创新的工作点,但要用一般算法进行优化,必须满足可导电的前提) ) ) ) ) ) ) ) )。 语义分割的两个任务都采用了UNet基线模型3,即编码解码的跨层连接结构。

区别在于在模型的输出处理中,学习率:最后的卷积层(102410245 [ngdqc类数] )激活层(sigmoid激活函数)损失函数:语义输出:将每个像素点(classes维向量)映射到所属类的概率的点(classes维向量【即,该点属于每个类的概率】),其中,概率最高的类是图像分类任务将结果映射为一个概率分布,测量两个概率分布的一致性。

高度预测sigmoid:最后卷积层(102410241 )激活层)激活函数)直接输出网络的输出softMax:

整体收获很忙,在这次比赛中花了一个月的时间。 或多或少都有值得记忆的东西。

第一,当然感谢同门各位的指导和帮助!

知识高度输出:[ Tensorflow高级封装]

)1)可以根据3358www.Sina.com/数据流为每个回归任务层次定义模型。Keras平台:return模式返回到模型定义; 以模型定义:列表或词典的形式逐一对应。

)2)序列模型:

**多个损失: **以列表或词典的形式一一对应;

2.http://www.Sina.com/[ http://www.Sina.com/] (模块化:独立打包不同功能,避免代码重复冗馀),http://www.Sina.com/(扩展)

)1) 3358 www.Sina.com/http://www.Sina.com/http://www.Sina.com /

)2) 3358 www.Sina.com/http://www.Sina.com/http://www.Sina.com /

由于从头训练模型一般不稳定,收敛需要较长的迭代,因此经常使用backbone框架应用预训练特征提取的骨架模型。

一般来说,模型的训练次数为10次左右,可以初步获得模型的性能效果,更多的训练次数略有提高。

)3)函数式API模型:

)4) 3358 www.Sina.com/http://www.Sina.com /比赛的总体流程:

)明确任务分析数据)精细、细致、有序,为后续工作奠定基础、做铺垫);

(2)分析基线)整理任务模型细节,从输入-中间处理-输出中熟悉整体流程);

)3)分析结果)可视化分析、问题查找、原因查找、战略查找、问题解决) ) ) ) )。

重复(4)3)的工作,直到最后得到满意的结果。多输入多输出模型:

)1)一定要做好记录,最后弄清自己的工作路线

)团队成员之间的合作交流同等重要(避免低效反复工作);

)3)拒绝拖延,deadline是第一生产力!loss定义(以语义分割正确为前提)如果高度预测值与实际高度之间的误差小于1米,则预测正确; 内心能力藏内功,稳重成事!

IGRSS2019竞赛

微软公司

UNet基线模型

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。