基于深度学习的现代计算机视觉模型(比如由对象检测API实现的模型)的性能取决于是否可以使用规模越来越大的标记训练数据集(如公开的图像)进行训练。
然而,如何获得高质量的训练数据,正迅速成为计算机视觉领域的主要瓶颈。这对于自动驾驶、机器人和图像搜索等应用中使用的语义分段的像素预测任务而言尤其如此。
实际上,传统的手动数据标记工具,需要标记者仔细点击图象边界,来划定图像中的每个对象,这很乏味:在COCO + Stuff数据集中,标记一个图像需要19分钟,而标记整个数据集需要53000小时!
COCO数据集中的图像示例(左)及其逐像素语义标记(右)。图片来源:
本文中的内容将在2018年ACM多媒体会议“勇敢新理念”环节中展示,谷歌的研究人员研究了一种机器学习驱动的界面,可用于标注分类数据,划定图像中每个目标的轮廓和背景,让标记数据集的生成速度提高至原来的3倍。
该工具名为流体标注(Fluid ),从强语义分割模型的输出开始,人工标记者可以使用自然用户界面,通过机器辅助编辑操作进行修改。谷歌此次开发的界面可以让标记者选择要修改的内容和顺序,使他们能够高效地将精力集中在机器尚不了解的内容上。
对COCO数据集中图像使用流体标注界面的可视化。图片来源:
更确切地说,为了对图像进行标记,我们首先通过预训练的语义分割模型(Mask-RCNN)来处理图像。这会生成约1000个图像片段及其分类标签和置信度分数。置信度分数最高的片段用于对标签的初始化,呈现给标记者。
然后,标记者就可以:(1)从机器生成的候选标签中为当前片段选择标签。(2)对机器未覆盖到的对象添加分割段。机器会识别出最可能的预生成段,标记者可以从中选择质量最高的一个。(3)删除现有段。(4)改变重叠段的深度顺序。(Demo链接在此:,仅限桌面平台)
使用传统手动标记(中列)和流体标注(右)在COCO数据集的三张图像上进行标记的比较。虽然使用手动标记工具时,目标的边界一般更准确,但标记差异的最大原因是人类标记者通常对某一确切的对象分类有不同意见。来源:(上),Dan Hurt(中), (下)。
流体标注是让图像标注变得更快、更容易的第一步探索。未来的目标是改进对目标边界的标记,进一步利用机器智能提升界面的速度,最终实现对界面的扩展,能够处理以前无法识别的分类,实现最高效、需求最大的数据收集。
而实际上,关于这款工具的论文的预印本早在近一个月前就发在了arxiv上。
论文地址:
参考链接:
新智元AI WORLD 2018
世界人工智能峰会全程回顾
新智元于9月20日在北京国家会议中心举办AI WORLD 2018世界人工智能峰会,邀请机器学习教父、CMU教授 Tom ,迈克思·泰格马克,周志华,陶大程,陈怡然等AI领袖一起关注机器智能与人类命运。
全程回顾新智元 AI World 2018 世界人工智能峰会盛况:
爱奇艺
上午:
下午:
新浪: