专题侠客群论剑-20150212

【15-06期VALSE Webinar活动】

报告嘉宾1蒋路(CMU)
主持人孟德宇(西南交通大学)
报告时间:2015年2月12日晚21:00(北京时间)
报告题目: Semantic Search in Internet Videos [slides]
文章信息
[1] Shoou-I Yu, Lu Jiang, Zexi Mao, Xiaojun Chang, Xingzhong Du, Chuang Gan, Zhenzhong Lan, Zhongwen Xu, Xuanchong Li, Yang Cai, Anurag Kumar, Yajie Miao, Lara Martin, Nikolas Wolfe, Shicheng Xu, Huan Li, Ming Lin, Zhigang Ma, Yi Yang, Deyu Meng, Shiguang Shan, Pinar Duygulu Sahin, Susanne Burger, Florian Metze, Rita Singh, Bhiksha Raj, Teruko Mitamura, Richard Stern, Alexander Hauptmann. CMU-Informedia@ TRECVID 2014 Multimedia Event Detection (MED). In TRECVID Video Retrieval Evaluation Workshop, NIST, 2014.
[2] Lu Jiang, Deyu Meng, Teruko Mitamura, Alexander Hauptmann. Easy Samples First: Self-paced Reranking for Zero-Example Multimedia Search. In ACM Multimedia (MM). 2014.
报告摘要:Event search in video is a novel and challenging problem in the field of computer vision and multimedia retrieval. In this talk, I will present a state-of-the-art system for event search without any textual metadata or example videos. The system relies on substantial video content understanding and allows for semantic search over a large collection of videos. The talk will focus on two breakthroughs we made on large-scale concept indexing and reranking. According to the National Institute of Standards and Technology, our system achieves the best performance on zero-example event detection in TRECVID 2013 and 2014. We share our observations, lessons and data in building such a state-of-the-art system, which may be instrumental in guiding the design of the future system for semantic search in video.
报告人简介:蒋路,卡内基梅隆大学在读博士(2011年至今)。曾于2008年2011年获得西安交通大学工学学士与硕士。研究兴趣包含大规模视频理解、检索和推荐。他作为核心成员参与的系统曾经获得美国国家标准总局(NIST)举办的多项比赛(http://trecvid.nist.gov/)中优异成绩,其中包括:多媒体视频搜索(Multimedia Event Detection Zero-Example)2013第1名,2014第1名;监控视频检索 (Surveillance Event Detection)2011第1名;视频语义索引(Semantic Indexing)2014第3 / 26(仅利用提供的训练数据)。大赛的参与者包括著名公司例如IBM, Canon, BBN, SRI International,Kitware, 和著名高校或科研机构:美国斯坦佛大学、法国Inria实验室、美国哥伦比亚大学、马萨诸塞州大学、马里兰大学、南加州大学等。近年来在包括The VLDB Journal, NIPS, MM, AAAI, ICMR, SLT发表论文10余篇。曾多次在美国国家标准总局进行关于TRECVID任务的口头报告。工作曾经获得IEEE Spoken Language Technology best poster和 International Conference on Multimedia Retrieval best paper runner-up。

报告嘉宾2:鲁一杰(香港城市大学)
主持人蓝振忠(CMU)
报告时间:2015年2月12日晚21:40(北京时间)
报告题目:无训练样本的多媒体事件检测和事件重述(Zero-Example Event Detection and Recounting)[slides]
文章信息:Chong-Wah Ngo, Yi-Jie Lu, Hao Zhang, Ting Yao, et al., “VIREO-TNO @ TRECVID 2014: Multimedia Event Detection and Recounting (MED and MER),” in Proc. NIST TRECVID Workshop, Orlando, USA, 2014.
报告摘要:主要介绍报告人在NIST TRECVID’14比赛中的工作和发现,求解的问题是在不提供视频样本的情况下完成多媒体事件检测(Multimedia Event Detection)和事件重述(Event Recounting)。一个多媒体事件被定义为由人完成的一组动作,例如更换车胎;或者由人参与的一个活动,例如生日宴会。在事件检测部分,我们利用一个已训练好的包含1843个concept的知识库来完成从文本到视觉的映射。给定一个事件的纯文本描述作为query,核心的问题在于如何选择知识库中和该事件相关的concept作为事件的系统描述。对这一过程,我们主要探讨了WordNet/ConceptNet的实用性,以及concept的数量对性能的影响。在事件重述部分,利用事件检测所选出的concept,我们提出了一种简单可行的工程实现,为每个相关视频推荐3个与该事件最相关的视频片段作为事件检测的“关键证据”。这一方法在TRECVID’14事件重述的评价中取得了第2名。
报告人简介:鲁一杰,香港城市大学计算机科学系在读博士(2014-),师从Chong-Wah Ngo。他分别于2009年和2012年在成都西南交通大学获得工学学士和硕士学位,研究生导师吴晓。2012-2013年,他在微软亚洲研究院(MSRA)多媒体搜索和挖掘组研究实习,导师芮勇。研究兴趣包括多媒体信息检索、事件检测、视频内容分析、计算机视觉等。作为VIREO小组核心成员,他在TRECVID’14比赛中所研发的系统,在事件重述(MER)任务中组排名第二,在无训练样本的事件检测(MED 0Ex)子项中组大致排名第三。他所在的小组VIREO曾取得2008年视频概念检测(Video Concept Detection)任务和2010年多媒体事件检测(Multimedia Event Detection)任务第一,2012年视觉实例搜索(Instance Search)任务第二,并在多个子项中保持着亚洲参赛组的领先成绩,曾开发的大规模视频内容识别器VIREO-374至今已被全球100余所大学或研究机构下载使用。

(Visited 284 times, 1 visits today)