翟季冬

2021.03.31 10:03

职称 教授 电话 62795471
邮箱 zhaijidong@tsinghua.edu.cn

undefined

姓名:翟季冬

职称:教授

邮箱:zhaijidong@tsinghua.edu.cn

主页:http://pacman.cs.tsinghua.edu.cn/~zjd/

教育背景

工学学士(计算机科学与技术),电子科技大学,中国,2003

工学博士(计算机科学与技术),清华大学,中国,2010

工作履历:

2012.7-2017.11 清华大学计算机系助理研究员/助理教授

2013.4-2013.10 微软亚洲研究院访问学者

2014.8-2014.9 新加坡南洋理工大学访问学者

2015.9-2016.9 斯坦福大学访问助理教授

2017.12-2023.6 清华大学计算机系准聘/长聘副教授

2023.6- 清华大学计算机系长聘教授

社会兼职:

IEEE Transactions on Computers,编委(2021-)

IEEE Transactions on Parallel and Distributed Systems,编委(2019-)

IEEE Transactions on Cloud Computing,编委(2020-)

Journal of Parallel and Distributed Computing,编委(2020-)

Journal of Parallel Computing,编委(2021-)

Journal of Computer Science and Technology,青年编委(2019-)

Big Data Mining and Analytics,青年编委(2022-)

Frontiers of Computer Science,青年编委(2019-)

中国计算机学会通讯,编委(2021-)

清华大学计算机系高性能所副所长(2017-)

ACM 中国高性能计算专家委员会秘书长(2019-)

研究领域:

并行计算、编程语言与编译器、性能评测

研究概况:

主要研究方向包括并行计算、编程语言与编译器、编程模型、性能评测等。研究成果发表在相关领域顶级学术会议和期刊—SC、ICS、PPOPP、ASPLOS、MICRO、OSDI、ATC、IEEE TC、IEEE TPDS等。研究成果获IEEE TPDS 2021最佳论文奖、IEEE CLUSTER 2021最佳论文奖、ACM ICS 2021最佳学生论文奖等。担任NPC 2018程序委员会主席、IEEE Cluster 2021领域主席、SC 2022领域副主席,SC、ICS、PPOPP、PACT等国际学术会议程序委员会委员。担任IEEE TC、IEEE TPDS、IEEE TCC等多个国际学术期刊编委。担任清华大学学生超算团队教练,指导的团队十三次获得世界冠军。获教育部科技进步一等奖、中国计算机学会自然科学一等奖、CCF-IEEE CS青年科学家奖、国家杰出青年科学基金等。

奖励与荣誉:

中国计算机学会自然科学一等奖(第一完成人)(2021年)

CCF-IEEE CS 青年科学家奖(2020年)

IEEE TPDS 最佳论文奖(2021年)

ACM ICS 最佳学生论文奖(2021年)

IEEE CLUSTER 最佳论文奖(2021年)

清华大学“刘冰”奖(2021年)

中国计算机学会杰出演讲者(2021年)

IEEE ICDCS最佳论文提名奖(2020年)

清华大学先进工作者(2018年)

清华大学先进工作者(2015年)

清华大学优秀博士后(2012年)

中国计算机学会优秀博士学位论文(2010年)

清华大学优秀博士毕业生(2010年)

教育部科技进步一等奖(2009年)

中国电子学会电子信息科学技术一等奖(2009年)

西贝尔学者(2009年)

学生指导:

SC国际超算竞赛冠军(指导教师):2015、2018、2019、2020、2021年

ISC国际超算竞赛冠军(指导教师):2015、2017、2018、2021、2022年

ASC国际超算竞赛冠军(指导教师):2015、2017、2018年

清华大学优秀博士学位论文指导教师:2021、2022年

第六届全国大学生RDMA编程竞赛特等奖(指导教师):2018年

第一届国产CPU并行应用挑战赛金奖(指导教师):2017年

研究课题:

国家杰出青年科学基金:高性能计算并行优化与编程模型(2023-2027)

国家自然科学基金联合基金重点项目:基于多面体模型的深度学习张量编译器(2021-2024)

国家优秀青年科学基金:高性能计算与超级计算机(2018-2020)

国家自然科学基金面上项目:面向高性能云平台的并行程序优化关键技术研究(2015-2018)

国家自然科学基金青年基金:基于进程相似性的大规模并行程序在线可扩展分析方法研究(2012-2014)

学术成果:

[1] Chen Zhang, Lingxiao Ma, Jilong Xue, Yining Shi, Ziming Miao, Fan Yang, Jidong Zhai, Zhi Yang, Mao Yang. Cocktailer: Analyzing and Optimizing Dynamic Control Flow in Deep Learning. OSDI 2023.

[2] Liyan Zheng, Haojie Wang, Jidong Zhai, Muyan Hu, Zixuan Ma, Tuowei Wang, Shuhong Huang, Xupeng Miao, Shizhi Tang, Kezhao Huang, Zhihao Jia. EINNET: Optimizing Tensor Programs with Derivation-Based Transformations. OSDI 2023.

[3] Mingshu Zhai, Jiaao He, Zixuan Ma, Zan Zong, Runqing Zhang, Jidong Zhai. SmartMoE: Efficiently Training Sparsely-Activated Models through Combining Offline and Online Parallelization. ATC 2023.

[4] Jidong Zhai, Liyan Zheng, Jinghan Sun, Feng Zhang, Xiongchao Tang, Xuehai Qian, Bingsheng He, Wei Xue, Wenguang Chen, Weimin Zheng. Leveraging Code Snippets to Detect Variations in the Performance of HPC Systems. IEEE Trans. Parallel Distributed Syst. 33(12): 3558-3574. 2022.

[5] Chen Zhang, Haojie Wang, Zixuan Ma, Lei Xie, Zeyu Song, Jidong Zhai. UniQ: A Unified Programming Model for Efficient Quantum Circuit Simulation. SC 2022.

[6] Shizhi Tang, Jidong Zhai, Haojie Wang, Lin Jiang, Liyan Zheng, Zhenhao Yuan, Chen Zhang. FreeTensor: A Free-Form DSL with Holistic Optimizations for Irregular Tensor Programs. PLDI 2022.

[7] Jiaao He, Jidong Zhai, Tiago Antunes, Haojie Wang, Fuwen Luo, Shangfeng Shi, Qin Li. FasterMoE: Modeling and Optimizing Training of Large-scale Dynamic Pre-Trained Models. PPoPP 2022.

[8] Yuyang Jin, Haojie Wang, Runxin Zhong, Chen Zhang, Jidong Zhai. PerFlow: A Domain Specific Framework for Automatic Performance Analysis of Parallel Applications. PPoPP 2022.

[9] Zixuan Ma, Jiaao He, Jiezhong Qiu, Huanqi Cao, Yuanwei Wang, Zhenbo Sun, Liyan Zheng, Haojie Wang, Shizhi Tang, Tianyu Zheng, Junyang Lin, Guanyu Feng, Zeqiang Huang, Jie Gao, Aohan Zeng, Jianwei Zhang, Runxin Zhong, Tianhui Shi, Sha Liu, Weimin Zheng, Jie Tang, Hongxia Yang, Xin Liu, Jidong Zhai, Wenguang Chen. BaGuaLu: Targeting Brain Scale Pretrained Models with Over 37 Million Cores. PPoPP 2022.

[10] Haojie Wang, Jidong Zhai, Mingyu Gao, Zixuan Ma, Shizhi Tang, Liyan Zheng, Yuanzhi Li, Kaiyuan Rong, Yuanyong Chen, Zhihao Jia. PET: Optimizing Tensor Programs with Partially Equivalent Transformations and Automated Corrections. OSDI 2021.

[11] Kezhao Huang, Jidong Zhai, Zhen Zheng, Youngmin Yi, Xipeng Shen. Understanding and Bridging the Gaps in Current GNN Performance Optimizations. PPoPP 2021.

[12] Chen Zhang, Zeyu Song, Haojie Wang, Kaiyuan Rong, Jidong Zhai. HyQuas: Hybrid Partitioner Based Quantum Circuit Simulation System on GPU. ICS 2021.

[13] Yuyang Jin, Haojie Wang, Teng Yu, Xiongchao Tang, Torsten Hoefler, Xu Liu, Jidong Zhai. ScalAna: Automating Scaling Loss Detection with Graph Analysis. SC 2020.

[14] Tianhui Shi, Mingshu Zhai, Yi Xu, Jidong Zhai. GraphPi: High Performance Graph Pattern Matching through Effective Redundancy Elimination. SC 2020.

[15] Zhen Zheng, Chanyoung Oh, Jidong Zhai, Xipeng Shen, Youngmin Yi, Wenguang Chen. HiWayLib: A Software Framework for Enabling High Performance Communications for Heterogeneous Pipeline Computations. ASPLOS 2019.

[16] Xiongchao Tang, Jidong Zhai, Xuehai Qian, Wenguang Chen. pLock: A Fast Lock for Architectures with Explicit Inter-core Message Passing. ASPLOS 2019.

更多文章请见:https://dblp.org/pid/72/7413.html

上一篇:杨广文

下一篇:郑纬民

关闭