华中科技大学人工智能与自动化学院颜露新团队首创生成范式的神经形态视觉运动感知技术

查找参加最新学术会议,发表EI、SCI论文,上学术会议云
2025年第四届算法、数据挖掘与信息技术国际会议(ADMIT 2025)
2025年第八届机器学习和自然语言处理国际会议(MLNLP 2025)
2025年第八届数据科学和信息技术国际会议(DSIT 2025)
2025年数据科学与智能系统国际会议(DSIS 2025)
2025年第四届先进的电子、电气和绿色能源国际会议 (AEEGE 2025)
2025年第二届亚太计算技术、通信和网络会议(CTCNet 2025)
艾思科蓝 | 学术会议 | 学术期刊 | 论文辅导 | 论文编译 | 发表支持 | 论文查重
文章导读
当传统相机在暗夜或高速运动中“失明”,如何让机器依然看清世界的动态?华中科技大学颜露新团队首创将事件相机与帧相机互补融合,注入扩散模型生成运动场,突破性实现极端场景下的高精度光流估计。这项发表于NeurIPS的亮点成果,不仅刷新低光、高速环境下的性能纪录,更将赋能自动驾驶、精密制造与神经科学,让机器感知迈向类脑新境界。
— 内容由好学术AI分析文章内容生成,仅供参考。

近日,我校人工智能与自动化学院、多谱信息智能处理技术全国重点实验室颜露新教授团队在生成范式神经形态视觉运动感知方面的工作“Injecting Frame-Event Complementary Fusion into Diffusion for Optical Flow in Challenging Scenes”,被人工智能领域顶级会议The Thirty-Ninth AnnualConference on Neural Information Processing Systems(NeurIPS)接收为亮点(spotlight)论文。该研究探索了神经形态视觉传感器与帧相机之间的互补机制,提出了生成式模型的跨模态融合运动估计方法,其性能在低光、高速等挑战性场景领先。

以事件相机为代表的神经形态视觉传感器具有宽动态范围和高时间分辨率的优势,在低光、高速等极端场景表现出优越的成像性能;扩散模型在退化场景的图像生成领域应用广泛,而在下游视觉任务尚缺探索。研究团队围绕极端退化场景运动估计任务,研究了事件相机与帧相机之间的表观-边缘互补性,构建了以互补融合特征为条件的扩散模型,迭代生成退化场景的高质量运动场。

华中科技大学人工智能与自动化学院颜露新团队首创生成范式的神经形态视觉运动感知技术

图为基于扩散模型的跨模态融合生成运动估计。

该研究成果具备广阔应用前景。在自动驾驶、工业检测和机器人等应用场景,该技术可在夜间、高速环境下实现稳健的运动感知与微秒级实时监测,支撑动态目标检测、高速避障和精密制造中的质量控制;在生命科学与医学成像领域,它有望辅助神经活动追踪和显微尺度的快速运动观测,为神经科学研究与医疗诊断提供新工具。

我校人工智能与自动化学院2025级直博生王浩楠为论文第一作者,博士毕业生周寒宇(现在新加坡国立大学从事博士后研究)和博士生刘昊岳深度参与相关工作。论文工作得到国家自然科学基金联合基金重点项目(U24B20139)资助。

© 版权声明
2025年第四届算法、数据挖掘与信息技术国际会议(ADMIT 2025)
2025年第八届机器学习和自然语言处理国际会议(MLNLP 2025)
2025年第八届数据科学和信息技术国际会议(DSIT 2025)
2025年数据科学与智能系统国际会议(DSIS 2025)
第二届大数据分析与人工智能应用学术会议(BDAIA2025)
2025年第四届先进的电子、电气和绿色能源国际会议 (AEEGE 2025)
2025年第二届亚太计算技术、通信和网络会议(CTCNet 2025)
艾思科蓝 | 学术会议 | 学术期刊 | 论文辅导 | 论文编译 | 发表支持 | 论文查重

相关文章

查找最新学术会议,发表EI、SCI论文,上学术会议云
艾思科蓝 | 学术会议 | 学术期刊 | 论文辅导 | 论文编译 | 发表支持 | 论文查重

暂无评论

none
暂无评论...