首页 > 编程知识 正文

上海交通大学本科生毕业论文(上海交通大学放假安排)

时间:2023-05-04 06:10:34 阅读:95739 作者:2011

根据AI科技评论,7月3日,国际人工智能与计算机视觉顶级会议ECCV 2018论文接收名单公布,今年ECV大会将在德国慕尼黑举行。 据AI科技评论,上海交通大学SJTU-UCLA机器感知与推理联合研究中心共评选出4篇论文,研究方向涉及自动驾驶、视频理解、视觉跟踪及新型神经网络。 本文对这些论文进行了介绍,更详细的内容可以从论文网盘的链接下载查看。

ECCV 2018论文接收列表:

359 docs.Google.com /文档/d/1 fukekgtxm _ vt8ch3HBNXayuu 8T4 NN HJam6XVGetKXGA /编辑? USP=共享

Paper1: 《Deep Regression Tracking with Shrinkage Loss》

基于收缩损失函数的目标跟踪

网盘链接: https://pan.Baidu.com/s/1 gnwyrzi5nnl-1只读- z8jsq

目标跟踪任务是在给定视频序列的初始帧的目标大小和位置的情况下,预测后续帧中该目标的大小和位置。 目标跟踪在视频监控、人机交互、无人驾驶等领域有很大的应用价值。 由于目标姿态、外观、照明、遮挡等因素的影响,目标跟踪仍然是一项非常困难的任务。 为了解决目标跟踪算法训练样本不均衡的问题,作者在该ECCV工作中提出了基于收缩损失函数的深回归跟踪算法,针对基于深回归的目标跟踪中的样本不均衡问题,本文提出的收缩损失函数明显提高了性能。

基于深度回归的目标跟踪算法通常在目标周围的上下文区域使用高斯热图(图1 b )训练与目标尺寸成比例的卷积层作为跟踪仪。 在这个训练过程中,卷积核通过密滑窗的方式生成样本(如图1 a所示) 这样会导致许多冗余的简单样本(如图1 d所示),乃至训练样本的不均衡问题。

图1 .给出检索区域(a )以及对应的标签y ) b )。 图(c )是回归对应图,图) d )是预测与标签值差分的分布直方图

传统的基于深度回归的网络采用L2损失函数,对所有参加训练的样本的惩罚力度相同。 这样导致网络训练时,集中在容易训练的样本,即冗长的负样本上。 为了解决这个问题,在这项工作中,作者提出了一种收缩损失函数(Shrinkage loss )的端到端目标跟踪算法。 作者提出的收缩损失函数在压缩易训练样本的损失输出的同时,保证了难分割样本的损失值,进而影响了梯度的网络学习,由此得到的深度回归网络通过正样本和难分割的负样本的学习而受到关注,并通过网络的过该方法在OTB-2013、OTB-2015、Temple-128和VOT-2016数据集上实现了与目前最佳的ECO跟踪算法相同的结果。 图2将不同损失函数下的结果可视化,可以看出我们的方法实现了更好的跟踪结果。

图2 .不同损失函数下的跟踪效果

纸2:《Geometric Constrained Joint Lane Segmentation andLane Boundary Detection》

基于几何约束的车道分割和车道边界检测

网络链接: https://pan.Baidu.com/s/1 wxu3Bt _1ons hko _ gz x1vyw

在智能驾驶问题上,环境识别是极其重要的一环。 车道检测的目的是检测车辆可以行驶的道路,支持智能驾驶的决策。 目前现有的车道检测工作大多集中在利用卷积神经网络的直接语义分割上,没有考虑车道固有的几何信息。 针对车道检测中的鲁棒性问题,本文提出了一种多任务神经网络,引入车道本身和边界之间的几何先验知识进行车道检测,得到了良好的实验结果。

图1 .与传统方法相比,我们的方法在特征提取层和决策层上有效地互补了两个几何依赖性任务,即Lane segmentation sub-network和laneboundarydetectionsub-network,同时

网络首先采用传统的多任务网络结构,同时进行车道分割、车道边界检测。 得到初步检测结果后,网络通过重新卷积一个任务的输出结果,形成补充信息,从而修改另一个任务的结果。 由于两个任务之间有一定的内在关系,修改可以明显提高网络的性能,使得网络可以同时关注与输入图像中重要特征互补的特征。 另外,基于两个任务之间的几何先验知识,网络引入不同的损耗函数,一方面通过车道的外侧边界一致性进行约束车道分割的训练,另一方面通过车道内部区域一致性约束车道边界检测,进一步提高网络精度。

571d?from=pc">

图2. 性能对比。左图为本文结果。其中绿色区域代表True Positive,蓝色区域代表False Positive,红色区域代表False Negative。可以看出与其他state-of-art方法对比,本文在精度上有极大的提高

Paper3:《Quaternion Convolution Neural Networks》

四元卷积神经网络

网盘地址:https://pan.baidu.com/s/1oAX_SqtGzyENa35BPcbE0g

在计算机视觉领域,卷积神经网络可谓是近年来最为流行的算法,受到了非常广泛的关注。目前,绝大多数的相关工作都局限于实数域的卷积神经网络,而针对计算机视觉中最为常见的多通道彩色图像却缺乏针对性的矢量卷积处理方式。为了解决这一问题,作者在这篇文章中首次提出四元卷积神经网络,构建了基于四元数运算的卷积和全连接等操作。针对卷积神经网络对彩色图像各通道分别处理而忽略它们之间相关性的问题,本文提出了四元卷积神经网络,利用四元数运算直接对三维颜色矢量进行处理,在一系列任务上取得了良好的实验结果。

图1. 四元卷积操作与实数卷积基本操作的对比

如图所示,实数卷积核利用三个滤波器对三个颜色通道的数据分别卷积并相加,即在三个通道上进行独立的标量拉伸,通过网络训练生成单通道的特征图。相比之下,四元卷积核则直接对颜色矢量进行旋转和拉伸,通过网络训练直接生成彩色的特征图。作者提出,四元卷积应当实现以下两点要求:

对每个颜色矢量,能够在整个颜色空间中进行变换以寻求最优表示。

对于灰度图像输入,能够与实数卷积完成等价的操作。

为此,本文引入双边四元数乘法来实现三维空间中颜色矢量旋转的性质,提出将滑窗内的颜色矢量旋转和放缩后相加,可期望每个颜色矢量能充分遍历颜色空间。同时,将旋转轴限定为灰度轴。当输入的图像为灰度图像,此时等价于仅对输入像素的灰度值进行了放缩变换,这和实数卷积中的操作是相同的。也就是说,实数卷积神经网络是本文所提出的四元卷积神经网络的一个特例。

对于全连接层,可以将其看作特殊的1*1卷积,这样就可以构建出完整的四元卷积神经网络。作者对四元卷积神经网络中各层的正向与反向传播过程进行了推导,并探索了参数的初始化方法及激活函数的设置,成功利用四元卷积神经网络完成了彩色图像分类和去噪的任务。实验结果表明在这些任务中四元卷积神经网络能够取得优于相同结构的实数卷积神经网络的结果,尤其是对于色彩鲜艳纹理丰富的图像优势较为明显。

图2. 在COCO的一个子集的去噪任务上使用同一个Encoder-Decoder结构的四元卷积神经网络与实数网络效果对比

图3. 在Cifar-10的分类任务上使用同一个浅层网络结构时四元卷积神经网络和实数网络的准确度对比

Paper4:《Egocentric Activity Prediction via Event ModulatedAttention》

基于异步事件注意力的第一人称视频预测

网盘链接:https://pan.baidu.com/s/1wyjQuL0zxj-dkfTO6K_bRw

第一人称视频行为预测问题是一个极具研究价值的问题。其应用场景包括生活辅助(Assist living)、机器人行为研究等。目前,基于第一人称视频的行为分析技术大多适用于行为识别,而不能够应用于行为预测问题。其原因在于,大多数现有的方法,使用了时序同步的特征处理框架,因而不能够有效地对时序异步事件来进行建模。本文针对这一问题,创造性地提出了Gaze-事件驱动的异步/同步网络模型,再结合注意力模型,取得了良好的实验结果。

图1. 相较于目前已有方法,我们的方法不但能够对同步特征进行建模,还能够充分地利用异步事件信息,同时注意力模型能够对视频序列包含的冗余帧信息进行修剪,从而提升网络的行为预测性能

本文提出的网络框架包括同步和异步两个模块。同步模块以hand-mask和gaze-point为输入特征,经过一个FCN网络和LSTM模块得到同步特征。异步模块以异步事件信号和Object-gaze特征序列为输入特征,并经过LSTM模型得到异步特征。辅以注意力模型进行特征融合,最终得到行为预测结果。实验结果表明,模型结合异步信息后能够显著提高模型对行为的预测能力,在数据集Gaze(Gaze+)分别比baseline提升5.6%(11.8%),同时,注意力模型的引入也能够进一步提高模型的精度,在数据集Gaze(Gaze+)分别提升1.6%(1.3%)。

注:上海交通大学SJTU-UCLA机器感知与推理联合研究中心主任为长江学者张文军教授,由xqdmf教授、zzdmf教授指导多个研究小组。该联合中心主要研究方向为:新一代人工智能基础理论、智能视频理解及创意互动媒体、智能医疗影像分析。联合中心于2018年6月正式成立,联合中心的外方专家有国际计算机视觉与图像学权威、著名的SNAKE模型发明人,Demetri Terzopoulos教授,以及图灵奖获得者、概率推理理论的奠基人Judea Pearl教授。截止到目前,联合中心已发表30余篇CCF-A类顶级论文。

想知道关于计算机视觉的更多知识?

欢迎点击“阅读原文”

或者移步 AI 研习社社区~

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。