中文核心期刊
中国科技论文统计源期刊
国际刊号:1005-2615
国内刊号:32-1429/V
用户登录
  E-mail:  
  密  码:  
  作者 审稿  
  编辑 读者  
期刊向导
联系方式ʽ
  • 主管:工业和信息化部
  • 主办:南京航空航天大学
  • 国际刊号:1005-2615
  • 国内刊号:32-1429/V
  • 地址:南京市御道街29号
  • 电话:025-84892726
  • 传真:025-84892726
  • E-mail:tnc01@nuaa.edu.cn
  • 邮编:210016
吴家皋,杨璐,翁玮薇,刘林峰.基于K-means的深度跨模态哈希量化优化方法[J].南京航空航天大学学报,2021,53(5):684-691
基于K-means的深度跨模态哈希量化优化方法
K-means Based Quantitative-Optimization Method for Deep Cross-Modal Hashing
投稿时间:2020-10-29  修订日期:2020-12-05
DOI:10.16356/j.1005-2615.2021.05.004
中文关键词:  多模态  哈希算法  聚类算法  特征向量
英文关键词:multi-modal  hash algorithm  clustering algorithm  feature vector
基金项目:国家自然科学基金(41571389,61872191)资助项目。
作者单位邮编
吴家皋 南京邮电大学计算机学院南京 210023
江苏省大数据安全与智能处理重点实验室南京 210023 
210023
杨璐 南京邮电大学计算机学院南京 210023
江苏省大数据安全与智能处理重点实验室南京 210023 
210023
翁玮薇 南京邮电大学计算机学院南京 210023
江苏省大数据安全与智能处理重点实验室南京 210023 
210023
刘林峰 南京邮电大学计算机学院南京 210023
江苏省大数据安全与智能处理重点实验室南京 210023 
210023
摘要点击次数: 77
全文下载次数: 168
中文摘要:
      互联网应用的普及使得多模态数据快速增长,跨模态检索技术已成为相关领域的关键技术之一。针对现有跨模态哈希算法存在的网络结构和量化方法等方面的问题,本文在新的深度跨模态哈希检索模型之上,提出了一种基于K-means的深度跨模态哈希量化优化方法(K-means-based quantitative-optimization for deep cross-modal hashing,KQDH)。该方法通过K-means聚类算法对多模态数据特征向量分类,并通过集体量化方式来控制量化误差,使得哈希码更好地表示出多模态特征。实验结果表明,该方法能在多模态数据之间保持相似性并最大程度地捕获语义信息,从而提高跨模态检索的准确性和效率。
英文摘要:
      Multi-modal data are growing rapidly with the popularity of Internet applications, and cross-modal retrieval technology has become one of the key technologies in related research areas, where the cross-modal hash algorithm has been paid more and more attention because of its simplicity and efficiency recently. Due to the problems of existing algorithms in the network structure and quantization method, based on a new deep cross-modal hash retrieval model, a K-means based quantitative-optimization method for deep cross-modal hashing (KQDH) is proposed, which classifies the feature vectors of multi-modal data by K-means clustering algorithm, controls the quantization error by the collective quantization method, and makes the hash code better represent the multi-modal features. Experiments show that the proposed method can preserve the similarity between multi-modal data and capture semantic information to the greatest extent, and improve the accuracy and efficiency of cross-modal retrieval.
[HTML]  查看全文  查看/发表评论  下载PDF阅读器
关闭

Copyright @2010-2015《南京航空航天大学学报》编辑部

地址:南京市御道街29号        邮编:210016

电话:025-84892726      传真:025-84892726       E-mail:tnc01@nuaa.edu.cn

您是本站第3865054位访问者 本站今日一共被访问1898

技术支持:北京勤云科技发展有限公司

敬请关注《南航学报》官方微信