整理某学术会议全部文章——以ACM international conference on Multimedia为例

最近需要整理一下关于ACM international conference on Multimedia近两件论文的工作,需要了解到最近大家在研究些什么。因为也是第一次做这部分相关内容,也是个摸索整理学习的过程,希望将这个学习的过程记录下来,为以后在做这类工作时提供一些方便。

首先需要了解下这个会议,从ccf推荐会议列表中查到:

这个会议的出版为ACM,所以可以到图书馆系统中进ACM的数据库,选中论文集,后再论文集页面检索我们的会议名称即可,再点击进去即可看到某年某次会议的详情。

 

 

  • 2018年 ACM MM 会议总结 

会议摘要,其中在Source Material这一栏中能下载会议手册,在Table of Centents 这一栏中能够下载会议中收录的所有文章(其中有个小技巧,在publication中若是使用chrome浏览器,可以翻译当前网页,就能看到每篇文章的中文题目及摘要,和谷歌翻译几乎相同):

 今年,共有15个感兴趣的领域被分为四个研究主题,包括理解主题(涵盖多媒体和视觉,多模态分析和描述,以及多媒体中的深度学习),一个参与主题(涵盖多媒体中的情感和社交信号 ,多媒体搜索和推荐,以及社交多媒体),体验主题(涵盖多媒体人机交互与体验质量、多媒体艺术、多媒体娱乐与文化、多媒体协作教育与分布式环境、多媒体音乐、语音与音频处理),和系统主题(涵盖移动多媒体,多媒体可扩展性和管理系统,多媒体系统和中间件,多媒体远程呈现和虚拟/增强现实以及多媒体传输和交付)

 下面列举一些感兴趣的文章进行摘要学习:

  1. Video-to-Video Translation with Global Temporal Consistency  具有全局时间一致性的视频到视频转换

 abstract:Although image-to-image translation has been widely studied, the video-to-video translation is rarely mentioned. In this paper, we propose an unified video-to-video translation framework to accom- plish different tasks, like video super-resolution, video colouriza- tion, and video segmentation, etc. A consequent question within video-to-video translation lies in the flickering appearance along with the varying frames. To overcome this issue, a usual method is to incorporate the temporal loss between adjacent frames in the optimization, which is a kind of local frame-wise temporal con- sistency. We instead present a residual error based mechanism to ensure the video-level consistency of the same location in different frames (called (lobal temporal consistency). The global and local consistency are simultaneously integrated into our video-to-video framework to achieve more stable videos. Our method is based on the GAN framework, where we present a two-channel discrimina- tor. One channel is to encode the video RGB space, and another is to encode the residual error of the video as a whole to meet the global consistency. Extensive experiments conducted on different video- to-video translation tasks verify the effectiveness and flexibleness of the proposed method.

虽然图像到图像的翻译已被广泛研究,但很少提及视频到视频的翻译。在本文中,我们提出了一个统一的视频到视频转换框架,以完成不同的任务,如视频超分辨率,视频着色和视频分割等。视频到视频转换中的一个随之而来的问题在于在闪烁的外观和不同的帧。为了克服这个问题,通常的方法是在优化中结合相邻帧之间的时间损失,这是一种局部的逐帧时间一致性。相反,我们提出了一种基于残差的机制,以确保不同帧中相同位置的视频级一致性(称为(全局时间一致性)。全局和局部一致性同时集成到我们的视频到视频框架中,以实现更稳定视频。我们的方法基于GAN框架,我们提出了一个双通道判别器。一个通道是对视频RGB空间进行编码,另一个是对整个视频的残留错误进行编码以满足全局要求。在不同的视频到视频翻译任务上进行的大量实验验证了所提方法的有效性和灵活性。

2 .

Hierarchical Memory Modelling for Video Captioning  视频字幕的分层存储建模


  2017年 ACM MM 会议总结 

       同样附上会议摘要:

 在今年,共有22个感兴趣的领域被分为5个研究主题,包括系统和应用主题(涵盖多媒体系统和中间件,多媒体传输和交付,多媒体远程呈现和虚拟/增强/混合现实,移动和可穿戴多媒体) ),体验主题(涵盖感知多媒体,无处不在的多媒体,新颖的多媒体互动,社交,情感和情感多媒体,多媒体讲故事和策展,多媒体协作和公共空间),理解主题(涵盖多媒体深度学习,多模式/多传感器分析和描述,多媒体和视觉),以及参与主题(涵盖多媒体艺术,娱乐和文化,多媒体搜索和推荐,大数据,数字社会,自动驾驶汽车多媒体技术)。与去年相比,我们引入了新颖主题(涵盖多媒体隐私含义,多媒体数据收集,数据科学多媒体,多媒体新领域),以便接受多媒体研究中的新兴主题。zhenli

整理的资料在此: https://download.csdn.net/my

2017会议手册论文目录 + 2018会议手册论文目录 + 会议整理(近400篇文章中英文摘要,按照应用领域划分)

猜你喜欢

转载自blog.csdn.net/qq_28619473/article/details/85062452
今日推荐