0
本文作者: 岑大师 | 2017-10-24 23:55 |
ACMMM(ACM International Conference on Multimedia, 国际多媒体会议)是ACM多媒体领域的顶级会议,也是中国计算机学会推荐的A类国际学术会议。今年的ACMMM将于2017年10月23日至27日在美国Mountain View隆重举行,雷锋网将赴前线做覆盖与报道。
今天是ACMMM的首日,雷锋网一早就来到了会议场馆Computer History Musume。从大会官方数据看,本次大会共有700余名注册参会者,由于Computer History Musume的场馆容量有限,大会在开幕一个星期前关闭了注册通道,但在现场仍然有不少参会者到现场注册。
ACMMM 17注册台
第一天为Workshop环节,包括:
Thematic Workshop;
MMHealth Workshop;
Real-life Depression and Affect Challenge;
Lifelogging Tools and Applications;
以及三个Tutorials:
清华大学崔鹏博士主讲的“Human-Like Visual Learning and Reasoning”
美国Rochester大学Jiebo Luo主讲的“Social Multimedia Sentiment Analysis”
微软亚洲研究院梅涛博士与微软研究院Cha Zhang博士主讲的“Deep Learning for intelligent Video analysis”。
早上9点大会正式开场,第一个环节是Thematic Workshop,为期一个半小时,共有32篇论文进行宣讲,每篇2分钟。由于宣讲时间有限,大家往往在宣讲结束后都会加上一句:“欲知详情,请大家到我们Poster展位”。
尽管如此,雷锋网还是发现了不少有意思的论文,例如第二个出场的印度小哥Farshid Farhat的“Intelligent Portrait Composition Assistance”,能帮没有镜头感不会摆姿势的人合成出姿态优美的照片,简直逆天了有木有~
如PPT所示,左下角是原始照片,经过图像处理后,能给你变出一张更符合审美的照片
更多技术细节见下图Poster:
以及宁波诺丁汉大学的徐黎明同学的“Recognizing presence of hidden visual markers in digital images”,能让二维码摆脱黑白方框的格式,这种表现方式叫Artcode,可以在一幅画中包含二维码信息;
图中3、4行为包含二维码信息的Artcode图案
不过据徐同学介绍,目前阶段这种“Artcode”是设计师根据一定规律设计的,而且必须使用专门的APP进行扫描,尚不具备通用性。未来会考虑做成通用的接口,引导用户按一定规律生成Artcode。
上午的论文演讲结束后,清华大学崔鹏博士进行了题为“Human-Like Visual Learning and Reasoning”的Tutorial演讲。崔鹏博士笑称,他是第一回在这么大的会场做Tutorial,这让他有做Keynote演讲的感觉。在演讲中,崔鹏博士对机器学习与人类学习的方法进行了比较,并就机器学习的经典监督学习场景中的独立同分布(雷锋网按:I.I.D,即假设训练数据和测试数据是满足相同分布的,通过训练数据获得的模型能够在测试集获得好的效果的一个基本保障)的局限性进行了分析,并结合自己的研究对如何用少样本方法识别特征进行图像分类进行了分享。
例如:如果识别狗的训练集中喂给机器的大部分图片都是在草地或者地面上玩耍的狗,那么机器无法准确识别在水中的狗。另一个例子是,人类在对“狗”有认识的基础上通过少量样本建立起对“狼”的识别,但机器往往无法做到这点。
此外在下午进行的Real-life Depression and Affect Challenge中还公布了Affect和Depression两项竞赛的结果,中国队伍表现出色,其中为人民大学队获得Affect Sub-Challenge冠军,北京师范大学队获得Depression Sub-Challenge冠军。
大会主席刘琼向雷锋网介绍,今年的ACMMM有700多人参会(大会在700人的时候关闭了注册通道,但仍然有不少现场注册),其中来自中国的注册用户占1/3以上。按雷锋网之前参加其他学术会议的经验,第一天往往大概只有50%-60%左右的注册观众会来到会场,议程设置也会比较轻松,方便大家进行互动交流。明天大会将进入正会阶段,除了有精彩的Keynote演讲外,大会还会进行四篇候选Best Paper的演讲,值得一提的是,四篇论文第一作者均为华人。届时,雷锋网也将继续为读者带来ACMMM的相关报道。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。