个人简介
工作经历
2011—现在,中国科学院计算技术研究所,研究员;从事人体运动建模仿真研究,阶段成果曾获军队科技进步二等奖、教育部技术发明二等奖等奖励;
2009—2010,中国科学院计算技术研究所,副研究员;从事基于物理的人体运动建模研究;
2007—2008,Carnegie Mellon University,计算机学院与机器人研究所,访问学者;从事类人机器人与人体运动建模研究;
2004—2006,中国科学院计算技术研究所,副研究员;从事数字化技术与虚拟现实技术研究,项目成果获2006年度北京市科学技术奖一等奖;
2002—2003,中国科学院计算技术研究所,助理研究员;从事数字化技术研究,主要负责执行国家科技攻关计划奥运科技专项项目“数字化三维人体运动的计算机仿真研究”。
教育经历
1999/09—2002/06,中国科学院大学,软件与理论,博士;
1996/09—1999/06,中国科学院大学,应用数学,理学硕士;
1992/09—1996/06,四川师范大学,数学,理学学士。
项目资助
北京市自然科学基金-海淀原始创新联合基金重点研究专题项目,基于单目RGB-D图像视频的运动人体实时动态一体化三维重建;
中科院计算所-华为联合实验室项目,数字人的人脸动画技术合作项目;
国家自然科学基金面上项目,基于单目RGB/RGBD相机的身体运动和面部运动同步捕获方法研究;
国家科技支撑课题,国家应急演练仿真服务平台及应用示范;
三星公司项目,视频驱动的真实感Avatar表情克隆;
国家自然科学基金面上项目,风格化人体运动合成新方法研究,等。
研究奖励
面向体育训练的三维人体运动模拟与视频分析系统,北京市科学技术奖一等奖(排名第4);
虚拟人技术及其在载人航天中的应用,军队科技进步二等奖(排名第4);
数据驱动的人体运动建模仿真技术,中国仿真学会科学技术奖科技进步一等奖(排名第1);
人体运动捕获数据处理及重用技术,教育部科学技术奖技术发明二等奖(排名第2);
三维人体运动建模关键技术及应用,中国计算机学会科学技术奖技术发明一等奖(排名第1)。
发明专利
夏时洪等,一种三维人体运动的实时在线获取方法及其系统,201210270595.3;
夏时洪等,一种人脸运动跟踪方法和系统以及一种增强现实方法,201110335178.8;
夏时洪等,三维标记点序列的跟踪方法及其系统,ZL201010199191.0;
夏时洪等,一种基于运动捕获数据的角色运动合成方法,ZL200710120122.4;
夏时洪等,一种对人体运动捕获数据中的噪声和误差进行修正的方法,ZL200610113071.8;
夏时洪等,一种基于三维数据库的运动对象运动重构方法,ZL200510055214.X。
研究领域
主要在计算机图形学与虚拟现实方向,从事人体运动建模仿真基础交叉研究,包括三维深度学习、物理建模与动力学控制、姿态估计与运动捕获、运动合成与运动控制、数字人建模与几何处理等。
近期论文
查看导师新发文章
(温馨提示:请注意重名现象,建议点开原文通过作者单位确认)
虚拟人合成研究进展. 中国科学F辑, 2009, 39(5):483-498
人体运动的函数数据分析与合成. 软件学报, 2009, (06): 1664-1672
沉浸式虚拟装配中物体交互特征建模方法研究. 计算机研究与发展, 48(7): 1298-1306, 2011
基于二阶倒立摆的人体运动合成,计算机学报37(10): 2014, 2187-2195.
基于局部姿态先验的深度图像3D人体运动捕获方法. 软件学报,2016,27(S2):172-183
一种无标记的身体与面部运动同步捕获方法. 软件学报, 2019, 30(10): 3026-3036.
Realtime Style Transfer for Unlabeled Heterogeneous Human Motion. ACM TOG (SIGGRAPH), 34(4), 119:1-119:10, 2015
Realtime 3D eye gaze animation using a single RGB camera. ACM TOG (SIGGRAPH), 35(4), 118:1-118:14, 2016
Efficient and Flexible Deformation Representation for Data-Driven Surface Modeling. ACM TOG, 35(5), 158:1-17, 2016
Data-driven Inverse Dynamics for Human Motion. ACM TOG (SIGGRAPH Asia), 35(6), 163:1-163:12, 2016
A Survey on Human Performance Capture and Animation. JCST. 32(3): 536-554, 2017.
Templateless Non-rigid Reconstruction and Motion Tracking with a Single RGB-D Camera. IEEE TIP 26(12): 5966-5979, 2017
Mesh-based Autoencoders for Localized Deformation Component Analysis. AAAI, 2452-2459, 2018
Cascaded 3D Full-body Pose Regression from Single Depth Image at 100 FPS. IEEE VR, 431-438, 2018
Real-time 3D Face Reconstruction and Gaze Tracking for Virtual Reality. IEEE VR, 525-526, 2018
Variational Autoencoders for Deforming 3D Mesh Models. CVPR, 5841-5850, 2018
Automatic unpaired shape deformation transfer. ACM TOG (SIGGRAPH Asia), 37 (6), 1-15, 2018
Graph CNNs with Motif and Variable Temporal Block for Skeleton-based Action Recognition. AAAI, 8989-8996, 2019
Temporal Upsampling of Depth Maps Using a Hybrid Camera. IEEE TVCG 25(3): 1591-1602, 2019.
Realtime and Accurate 3D Eye Gaze Capture with DCNN-based Iris and Pupil Segmentation. https://doi.org/10.1109/TVCG.2019.2938165
Combining Recurrent Neural Networks and Adversarial Training for Human Motion Synthesis and Control. http://doi.org/10.1109/TVCG.2019.2938520
Sparse Data Driven Mesh Deformation. http://doi.org/10.1109/TVCG.2019.2941200
Weakly Supervised Adversarial Learning for 3D Human Pose Estimation from Point Clouds. IEEE TVCG 26 (5), 1851-1859, 2020.
DeepFaceDrawing: Deep Generation of Face Images from Sketches. ACM TOG (SIGGRAPH 2020), in press.