个人简介
兰时勇,计算机应用技术专业工学博士,在“视觉合成图形图像技术国家级重点学科实验室”从事视频图象处理、模式识别、视觉合成、深度学习以及智能交通应用等相关领域研究工作。曾在国际有名的视听信号处理实验室(CVSSP,University of Surrey,UK)访学一年。承担或参与“面向大尺度场景的高融合增强现实”、“面向动态场景感知应用”等计算机视觉、智能感知、虚拟现实相关的多项国家级项目课题;另主持或参与工信部电子信息产业发展基金项目、省科技厅重点项目、省科技支撑计划课题等省部级科研项目/课题10余项。上述项目涉及研究内容主要包括视频图像分析理解、人工智能、面向大尺度场景的高融合增强现实、面向动态场景感知、动态场景态势拟合及演化规律理解/预测等基础应用技术的研究与开发。已在国际国内外学术期刊和国际会议上发表论文40余篇;参编国家标准1项;申请国家发明专利多项;参与主编专著1本。曾参与多个SCI期刊同行评审。
目前研究兴趣:人工智能/机器学习、多模态智能感知理解、信号处理、数据内在关系建模等。新近工作部分开源请见https://github.com/SYLan2019。
招生专业与方向
083500 软件工程:计算机视觉与图像处理
081200 计算机科学与技术:计算机图形图像与虚拟现实
085400 电子信息:计算机技术
085400 电子信息:图形图像工程
085404 计算机技术
085410 人工智能
085411 大数据技术与工程
研究领域
机器学习、计算机视觉、信号处理、增强现实、智能系统
近期论文
查看导师新发文章
(温馨提示:请注意重名现象,建议点开原文通过作者单位确认)
[1]. DSTAGNN: Dynamic Spatial-Temporal Aware Graph Neural Network for Traffic Flow Forecasting. International Conference on Machine Learning (ICML) 2022, PMLR 162:11906-11917.(CCF-A) (Acceptance rate: 21.9%). [pdf] [code].
[2]. Face Super-Resolution with Spatial Attention Guided by Multiscale Receptive-Field Features. International Conference on Artificial Neural Networks (ICANN). Springer, Cham, 2022: 145-157. [pdf] (code).
[3]. A Transformer-based GAN for Anomaly Detection. International Conference on Artificial Neural Networks (ICANN). Springer, Cham, 2022: 345-357. [pdf](code).
[4]. Robust Visual Object Tracking with Spatiotemporal Regularisation and Discriminative Occlusion Deformation. International Conference on Image Processing (ICIP). IEEE, 2021, pp. 1879-1883. [pdf](code).
[5]. SAGAN: Skip-Attention GAN for Anomaly Detection, International Conference on Image Processing (ICIP). IEEE, 2021, pp. 2468-2472. [pdf](code).
[6]. Real-Time 3D Road Scene Based on Virtual-Real Fusion Method. IEEE Sensors Journal, 2015, 15(2):750-756.
[7].3D Road Scene Monitoring Based on Real-Time Panorama. Journal of Applied Mathematics, 2014, 2014:1-8.
[8].Effect of Slopes in Highway on Traffic Flow. International Journal of Modern Physics C, 2011, 22, 319-331.
[9].《机动车号牌自动识别系统》国家标准 GB/T 28649-2012.
[10].《城市应急交通流仿真建模与模拟》中国科学技术大学出版社 ISBN:978-7-312-05329-0.(专著)