喵ID:nBDZJ9免责声明

Discriminative Learning of Open-Vocabulary Object Retrieval and Localization by Negative Phrase Augmentation

基本信息

DOI:
10.18653/v1/d18-1281
发表时间:
2017-11
期刊:
影响因子:
--
通讯作者:
Ryota Hinami;S. Satoh
中科院分区:
其他
文献类型:
--
作者: Ryota Hinami;S. Satoh研究方向: -- MeSH主题词: --
关键词: --
来源链接:pubmed详情页地址

文献摘要

Thanks to the success of object detection technology, we can retrieve objects of the specified classes even from huge image collections. However, the current state-of-the-art object detectors (such as Faster R-CNN) can only handle pre-specified classes. In addition, large amounts of positive and negative visual samples are required for training. In this paper, we address the problem of open-vocabulary object retrieval and localization, where the target object is specified by a textual query (e.g., a word or phrase). We first propose Query-Adaptive R-CNN, a simple extension of Faster R-CNN adapted to open-vocabulary queries, by transforming the text embedding vector into an object classifier and localization regressor. Then, for discriminative training, we then propose negative phrase augmentation (NPA) to mine hard negative samples which are visually similar to the query and at the same time semantically mutually exclusive of the query. The proposed method can retrieve and localize objects specified by a textual query from one million images in only 0.5 seconds with high precision.
得益于目标检测技术的成功,我们甚至能够从海量图像集合中检索出特定类别的目标。然而,当前最先进的目标检测器(如Faster R-CNN)只能处理预先指定的类别。此外,训练还需要大量的正负视觉样本。在本文中,我们探讨开放词汇目标检索与定位问题,其中目标对象由文本查询(例如一个单词或短语)指定。我们首先提出查询自适应R-CNN,这是对Faster R-CNN的一种简单扩展,通过将文本嵌入向量转换为目标分类器和定位回归器,使其适用于开放词汇查询。然后,为了进行有区分度的训练,我们提出负短语增强(NPA)方法,以挖掘在视觉上与查询相似、同时在语义上与查询相互排斥的难负样本。所提出的方法能够在仅0.5秒内,以高精度从一百万张图像中检索并定位由文本查询指定的目标。
参考文献
被引文献

数据更新时间:{{ references.updateTime }}

关联基金

大規模映像中の物体検索技術に関する研究とその放送映像アーカイブへの応用
批准号:
17J08378
批准年份:
2017
资助金额:
1.22
项目类别:
Grant-in-Aid for JSPS Fellows
Ryota Hinami;S. Satoh
通讯地址:
--
所属机构:
--
电子邮件地址:
--
免责声明免责声明
1、猫眼课题宝专注于为科研工作者提供省时、高效的文献资源检索和预览服务;
2、网站中的文献信息均来自公开、合规、透明的互联网文献查询网站,可以通过页面中的“来源链接”跳转数据网站。
3、在猫眼课题宝点击“求助全文”按钮,发布文献应助需求时求助者需要支付50喵币作为应助成功后的答谢给应助者,发送到用助者账户中。若文献求助失败支付的50喵币将退还至求助者账户中。所支付的喵币仅作为答谢,而不是作为文献的“购买”费用,平台也不从中收取任何费用,
4、特别提醒用户通过求助获得的文献原文仅用户个人学习使用,不得用于商业用途,否则一切风险由用户本人承担;
5、本平台尊重知识产权,如果权利所有者认为平台内容侵犯了其合法权益,可以通过本平台提供的版权投诉渠道提出投诉。一经核实,我们将立即采取措施删除/下架/断链等措施。
我已知晓