首页 > 新闻动态 > 正文

计算机系牵头的两项国家自然科学基金重点项目启动

2026.01.13 18:20

近日,由清华大学计算机系翟季冬教授牵头的《异构芯片统一编程模型与编译优化》、钱学海教授牵头的《面向多模态联邦学习多层异质性问题的软硬件协同优化关键技术研究》两项国家自然科学基金重点项目启动会在北京召开。会议由计算机系副主任薛巍主持。中国科学院院士、北京航空航天大学计算机学院教授钱德沛,中国工程院院士、中国科学院计算技术研究所研究员孙凝晖,以及来自国内外十余所著名大学或科研院所的专家学者出席了会议。

会上,翟季冬和钱学海作为项目负责人,分别汇报了项目的研究背景、总体方案、任务分工等核心内容。两个项目的研究骨干均现场参会,并针对研究内容展开讨论。项目组通过讨论,就任务与分工、项目管理制度机制等关键问题达成共识。

《异构芯片统一编程模型与编译优化》项目,由清华大学牵头,联合上海交通大学、湖南大学共同承担,聚焦当前异构芯片开发人工智能程序面临两个关键挑战:芯片碎片化与生态不统一。该项目拟开展能够适应多种异构芯片的统一编程模型与编译优化方法,自上而下地研究基于表达式的细粒度深度学习模型图层变换、基于并发数据流图的统一并行编程模型、以访存为中心的异构芯片统一中间表示与多维度体系结构感知的代码生成等技术。通过打通多层次间的信息壁垒,实现异构芯片特征的充分感知,显著提升人工智能程序的执行效率。

《面向多模态联邦学习多层异质性问题的软硬件协同优化关键技术研究》项目,由清华大学牵头,联合香港科技大学、湖南大学共同承担。该项目关注到现有多模态联邦学习框架受多层异质性影响,难以同时满足准确性、高效性和安全性要求,拟构建软硬件协同优化的MFL系统框架。在硬件层,通过构建异构算子库、优化数据传输、统一硬件抽象接口和实现资源调度框架,提高各平台的计算与传输效率;在体系结构层,提出基于一致性模型、混合并行框架、动态模型迁移与异步通信、高效同态加密的优化策略,降低训练和通信延迟;在算法层,针对数据模态、统计及训练异质性,采用共享编码器、跨模态注意力、动态权重分配和个性化正则化策略,提升模型泛化能力;在应用层,通过在典型多模态大语言模型上示范,推动视觉问答、多模态推荐及生成任务的发展。该项目自底向上优化各层异质性,有望显著降低计算、访存和通信开销,实现更准确、安全、高效的MFL训练与推理,为MFL应用推广提供坚实支撑。

关闭