快速发布求购 登录 注册
行业资讯 行业 财报 市场 标准 研发 新品 会议 盘点 政策 本站速递

沈阳自动化所提出场景识别新方法

研发快讯 2025年06月10日 09:29:27来源:中国科学院沈阳自动化研究所 5203
摘要近日,中国科学院沈阳自动化研究所光电信息技术研究室机器视觉研究部科研团队提出了一种结合CLIP多模态模型的场景识别新方法——OSFA(Object-Level and Scene-Level Feature Aggregation)。

  【 仪表网 研发快讯】在机器人领域,场景识别可以帮助机器人理解周围环境,完成精准的作业任务。随着人工智能技术在各行业的深入应用,对场景识别的准确性和鲁棒性要求不断提高。
  在实际场景中,光照变化、物体遮挡、视角差异及同类场景的多样性,容易导致识别方法难以提取稳定且具代表性的特征。此外,复杂场景中多语义信息的高效融合、避免信息冗余或丢失,以及提升模型泛化能力,是亟待解决的技术难点。
  近日,中国科学院沈阳自动化研究所光电信息技术研究室机器视觉研究部科研团队提出了一种结合CLIP多模态模型的场景识别新方法——OSFA(Object-Level and Scene-Level Feature Aggregation)。该方法通过动态聚合对象级与场景级特征,可以显著提升复杂场景的分类精度与鲁棒性。
OSFA方法框架
  首先,科研人员将CLIP的视觉特征作为先验信息,采用对象级交叉注意力机制,提取与场景高度相关的局部细节特征。随后,利用CLIP的文本编码器生成类别文本语义信息,引导从图像中提取全局语义特征,再通过场景级交叉注意力机制形成最终的场景表示。为了增强模型鲁棒性,还引入了多损失策略,包括线性分类损失、场景对比损失和类别对比损失。
  研究结果显示,该场景识别方法可有效聚合特征,显著提升复杂场景分类精度与鲁棒性,能为视觉导航、机器人应用等领域的场景理解与智能决策提供技术支撑,助力提升感知与任务执行效率。
  该研究以Object-Level and Scene-Level Feature Aggregation with CLIP for Scene Recognition为题发表于国际期刊Information Fusion。沈阳自动化所博士生王群为第一作者,沈阳自动化所朱枫研究员为通讯作者。
  光电信息技术研究室机器视觉研究部长期从事智能感知与场景理解关键技术的研究,致力于推动人工智能在智能制造、服务机器人、智慧城市等领域的深入应用。(光电信息技术研究室)

我要评论
文明上网,理性发言。(您还可以输入200个字符)

所有评论仅代表网友意见,与本站立场无关。

版权与免责声明
  • 凡本网注明"来源:仪表网"的所有作品,版权均属于仪表网,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明"来源:仪表网"。违反上述声明者,本网将追究其相关法律责任。
  • 本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。
  • 如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。
  • 合作、投稿、转载授权等相关事宜,请联系本网。联系电话:0571-87759945,QQ:1103027433。
今日 换一换
新发产品 更多+

客服热线:0571-87759942

采购热线:0571-87759942

媒体合作:0571-87759945

  • 仪表站APP
  • 微信公众号
  • 仪表网小程序
  • 仪表网抖音号
Copyright anceft.com    All Rights Reserved   法律顾问:浙江天册律师事务所 贾熙明律师   仪表网-仪器仪表行业“互联网+”服务平台
意见反馈
我知道了