当前位置: X-MOL首页全球导师 国内导师 › 夏时洪

个人简介

工作经历 2011—现在,中国科学院计算技术研究所,研究员;从事人体运动建模仿真研究,阶段成果曾获军队科技进步二等奖、教育部技术发明二等奖等奖励; 2009—2010,中国科学院计算技术研究所,副研究员;从事基于物理的人体运动建模研究; 2007—2008,Carnegie Mellon University,计算机学院与机器人研究所,访问学者;从事类人机器人与人体运动建模研究; 2004—2006,中国科学院计算技术研究所,副研究员;从事数字化技术与虚拟现实技术研究,项目成果获2006年度北京市科学技术奖一等奖; 2002—2003,中国科学院计算技术研究所,助理研究员;从事数字化技术研究,主要负责执行国家科技攻关计划奥运科技专项项目“数字化三维人体运动的计算机仿真研究”。 教育经历 1999/09—2002/06,中国科学院大学,软件与理论,博士; 1996/09—1999/06,中国科学院大学,应用数学,理学硕士; 1992/09—1996/06,四川师范大学,数学,理学学士。 项目资助 北京市自然科学基金-海淀原始创新联合基金重点研究专题项目,基于单目RGB-D图像视频的运动人体实时动态一体化三维重建; 中科院计算所-华为联合实验室项目,数字人的人脸动画技术合作项目; 国家自然科学基金面上项目,基于单目RGB/RGBD相机的身体运动和面部运动同步捕获方法研究; 国家科技支撑课题,国家应急演练仿真服务平台及应用示范; 三星公司项目,视频驱动的真实感Avatar表情克隆; ​国家自然科学基金面上项目,风格化人体运动合成新方法研究,等。 研究奖励 面向体育训练的三维人体运动模拟与视频分析系统,北京市科学技术奖一等奖(排名第4); 虚拟人技术及其在载人航天中的应用,军队科技进步二等奖(排名第4); 数据驱动的人体运动建模仿真技术,中国仿真学会科学技术奖科技进步一等奖(排名第1); 人体运动捕获数据处理及重用技术,教育部科学技术奖技术发明二等奖(排名第2); 三维人体运动建模关键技术及应用,中国计算机学会科学技术奖技术发明一等奖(排名第1)。 发明专利 夏时洪等,一种三维人体运动的实时在线获取方法及其系统,201210270595.3; 夏时洪等,一种人脸运动跟踪方法和系统以及一种增强现实方法,201110335178.8; 夏时洪等,三维标记点序列的跟踪方法及其系统,ZL201010199191.0; 夏时洪等,一种基于运动捕获数据的角色运动合成方法,ZL200710120122.4; 夏时洪等,一种对人体运动捕获数据中的噪声和误差进行修正的方法,ZL200610113071.8; 夏时洪等,一种基于三维数据库的运动对象运动重构方法,ZL200510055214.X。

研究领域

主要在计算机图形学与虚拟现实方向,从事人体运动建模仿真基础交叉研究,包括三维深度学习、物理建模与动力学控制、姿态估计与运动捕获、运动合成与运动控制、数字人建模与几何处理等。

近期论文

查看导师新发文章 (温馨提示:请注意重名现象,建议点开原文通过作者单位确认)

虚拟人合成研究进展. 中国科学F辑, 2009, 39(5):483-498 人体运动的函数数据分析与合成. 软件学报, 2009, (06): 1664-1672 沉浸式虚拟装配中物体交互特征建模方法研究. 计算机研究与发展, 48(7): 1298-1306, 2011 基于二阶倒立摆的人体运动合成,计算机学报37(10): 2014, 2187-2195. 基于局部姿态先验的深度图像3D人体运动捕获方法. 软件学报,2016,27(S2):172-183 一种无标记的身体与面部运动同步捕获方法. 软件学报, 2019, 30(10): 3026-3036. Realtime Style Transfer for Unlabeled Heterogeneous Human Motion. ACM TOG (SIGGRAPH), 34(4), 119:1-119:10, 2015 Realtime 3D eye gaze animation using a single RGB camera. ACM TOG (SIGGRAPH), 35(4), 118:1-118:14, 2016 Efficient and Flexible Deformation Representation for Data-Driven Surface Modeling. ACM TOG, 35(5), 158:1-17, 2016 Data-driven Inverse Dynamics for Human Motion. ACM TOG (SIGGRAPH Asia), 35(6), 163:1-163:12, 2016 A Survey on Human Performance Capture and Animation. JCST. 32(3): 536-554, 2017. Templateless Non-rigid Reconstruction and Motion Tracking with a Single RGB-D Camera. IEEE TIP 26(12): 5966-5979, 2017 Mesh-based Autoencoders for Localized Deformation Component Analysis. AAAI, 2452-2459, 2018 Cascaded 3D Full-body Pose Regression from Single Depth Image at 100 FPS. IEEE VR, 431-438, 2018 Real-time 3D Face Reconstruction and Gaze Tracking for Virtual Reality. IEEE VR, 525-526, 2018 Variational Autoencoders for Deforming 3D Mesh Models. CVPR, 5841-5850, 2018 Automatic unpaired shape deformation transfer. ACM TOG (SIGGRAPH Asia), 37 (6), 1-15, 2018 Graph CNNs with Motif and Variable Temporal Block for Skeleton-based Action Recognition. AAAI, 8989-8996, 2019 Temporal Upsampling of Depth Maps Using a Hybrid Camera. IEEE TVCG 25(3): 1591-1602, 2019. Realtime and Accurate 3D Eye Gaze Capture with DCNN-based Iris and Pupil Segmentation. https://doi.org/10.1109/TVCG.2019.2938165 Combining Recurrent Neural Networks and Adversarial Training for Human Motion Synthesis and Control. http://doi.org/10.1109/TVCG.2019.2938520 Sparse Data Driven Mesh Deformation. http://doi.org/10.1109/TVCG.2019.2941200 Weakly Supervised Adversarial Learning for 3D Human Pose Estimation from Point Clouds. IEEE TVCG 26 (5), 1851-1859, 2020. DeepFaceDrawing: Deep Generation of Face Images from Sketches. ACM TOG (SIGGRAPH 2020), in press.

推荐链接
down
wechat
bug