当前位置: 监察器 >> 监察器优势 >> 泡泡一分钟将背景带入前景在弱监督的视
每天一分钟,带你读遍机器人顶级会议文章
标题:BringingBackgroundintotheForeground:MakingAllClassesEqualinWeakly-supervisedVideoSemanticSegmentation
作者:FatemehSadatSaleh,MohammadSadeghAliakbarian,MathieuSalzmann,LarsPetersson,JoseM.Alvarez
来源:InternationalConferenceonComputerVision(ICCV)
编译:王嫣然
审核:陈世浪
欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权
摘要
像素级注释昂贵且耗时。因此,仅使用图像标记的弱监督可能对语义分割产生重大影响。近年来,无论是单个图像还是视频,弱监督语义分割都取得了很大进展。然而,大多数现有方法都只为处理单个背景类而设计。在实际应用如自主导航中,对多个背景类进行推理通常至关重要。
本文介绍了一种利用分类器热图进行分类的方法。利用外观和运动开发了一个双流深度架构,并设计了一个基于热图的损失函数对该架构进行训练。实验证明本文所提出的分类器热图和双流架构在具有挑战性的城市场景数据集与YouTube-Objects基准测试中具有优势,并获得了最优结果。
图1.框架概述。在只提供视频级标签的情况下,弱监督视频语义分割网络联合利用分类器热图和运动信息来建模多个前景类与背景类。与大多数只
转载请注明:http://www.aideyishus.com/lkgx/824.html