张经纬

清华大学计算机科学与技术系 | 长聘教授 | 博士生导师

张经纬教授致力于通过跨学科方法探索人工智能的认知基础,其研究创新地融合机器学习、神经科学与统计物理。带领的“智能计算与认知实验室”围绕可信赖人工智能、可解释模型构建以及跨模态认知展开,在 NeurIPS、ICML、Nature Machine Intelligence 等顶级期刊和会议上发表论文 180 余篇,成果多次被国际媒体报道。

183
同行评审论文
53
授权发明专利
18
科研项目在研

教育背景

麻省理工学院
人工智能实验室 | 计算机科学博士
2010 - 2014
博士论文《深度生成模型的可解释性理论》,获 2015 ACM 计算理论最佳博士论文奖。
清华大学
计算机科学与技术系 | 学士 + 硕士
2004 - 2010
本硕连读,主修人工智能与模式识别,曾获国家奖学金、清华大学特等奖学金。

学术任职

清华大学
智能计算与认知实验室主任
2019 - 至今
负责实验室战略规划与跨校合作,主持国家重点研发计划 2 项、国家自然科学基金重点项目 4 项。
斯坦福大学
客座教授(计算神经科学中心)
2016 - 2018
与神经科学团队合作开展认知模型与脑机接口联合研究,发表跨学科论文 17 篇。
微软研究院亚洲研究院
研究员(机器学习组)
2014 - 2016
领导深度学习组的可解释模型方向,把研究成果部署到 Office 365 智能推荐中,服务全球用户超 3 亿。
谷歌大脑
博士实习生(生成模型组)
2012 - 2013
系统探索生成对抗网络的稳定训练机制,成果发表在 NeurIPS 2013,引用量超 4,800 次。

代表性科研项目

国家自然科学基金重点项目
可解释深度生成模型的可信学习理论
2022 - 2026
  • 提出跨模态数据的对齐框架,实现医学影像与文本标注的语义一致性。
  • 与微软亚洲研究院合作,将成果应用于临床辅助诊断系统。
科技部重点研发计划
面向城市脑的智能计算引擎
2021 - 2025
  • 构建多源数据融合平台,为城市交通调度与能源管理提供决策支持。
  • 联合北京交通大学等伙伴,部署试点城市取得 15% 能耗节约。
企业合作:华为诺亚方舟实验室
大规模模型的绿色优化
2020 - 2023
  • 牵头低碳训练算法研发,使大型 Transformer 模型训练能耗降低 28%。
  • 联合发表顶级会议论文 12 篇,获得 IEEE AI2030 可持续发展奖。
国家自然科学基金创新群体项目
可信 AI 的认知基础
2018 - 2021
  • 提出解释驱动的神经网络架构,显著提升在医疗影像任务上的透明度。
  • 成果被《Nature》新闻专栏报道,引发学术与产业广泛关注。

代表性论文

Interpretable Latent Dynamics in Deep Generative Models for Neuroimaging
Zhang, J., Li, X., Wang, H., et al. Nature Machine Intelligence, 2024.
影响因子 25.9 | 引用次数 320+
Towards Trustworthy AI: A Cognitive Science Perspective
Zhang, J., Chen, Y., Singh, A., et al. AI Magazine, 2023.
Best Survey Award | 被引 410+
Structured Alignment for Multimodal Transformer Systems
Zhang, J., Luo, M., et al. In NeurIPS, 2022.
Spotlight Presentation | 被引 520+
Causality-Aware Reinforcement Learning for Urban Intelligence
Zhang, J., Zhou, L., et al. In ICML, 2021.
Oral Presentation | 被引 460+
Explainable Generative Adversarial Networks
Zhang, J., Chai, J., et al. In NeurIPS, 2013.
引用次数 4,800+

学术服务

程序委员会主席
NeurIPS 2025 | IJCAI 2023
2023 - 2025
协调超过 20,000 篇投稿的评审流程,引入解释性与伦理评估模块,提升会议公平性。
期刊区域主编
IEEE TPAMI | Journal of Machine Learning Research
2021 - 至今
负责可信 AI 专栏,倡导可复现性标准,推动开放科学数据共享平台建设。
学术顾问
联合国教科文组织 AI 伦理委员会
2020 - 至今
撰写 AI 伦理治理政策建议,为 36 个国家的人工智能政策制定提供参考框架。
会议工作坊联合主席
ICLR Explainable AI Workshop
2017 - 2022
发起“可解释 AI 工业实践”系列活动,促成 50+ 企业与学界的深度合作。

学术演讲(精选)

Keynote: Interpretable Generative AI
AAAI 2024 | 温哥华
2024 年 2 月
探讨生成模型在医疗、教育领域的可信应用框架,提出模型责任制评估指标体系。
Distinguished Lecture: Trustworthy AI
牛津大学计算机系
2023 年 10 月
分享跨文化背景下的 AI 伦理实践案例,引发英国议会科技政策听证会关注。
Opening Talk: Cognitive AI
Cognitive Computational Neuroscience
2022 年 8 月
介绍基于神经科学的可解释性模型,提出跨尺度认知建模路线图,获最佳报告奖。
Plenary Talk: Ethics in AI Deployment
World AI Conference
2021 年 7 月
发布全球可信 AI 指南草案,倡导透明的数据治理和公众参与机制。

研究生培养

博士生导师
指导博士生 32 名 | 毕业 18 名
2015 - 至今
毕业生去往 MIT、斯坦福、DeepMind、华为诺亚方舟实验室等机构,其中 5 名创业成立 AI 初创企业。
课程建设
《可信赖人工智能》《可解释机器学习》主讲
2016 - 至今
课程获得“国家一流本科课程”称号,在线学习者累计 11 万人次,教材被全国 35 所高校采用。