张骏雪,中国科学技术大学计算机科学与技术学院特任教授。本科及硕士均毕业于东南大学,博士学位则获得于香港科技大学,师从陈凯教授。曾担任香港科技大学研究助理教授(Research Assistant Professor)。主要研究方向包括数据中心网络、RDMA 网络以及机器学习系统。近年来,他在网络和系统领域的顶级学术会议和期刊上发表二十余篇论文,作为第一作者或通讯作者(包括共同通讯作者)在 SIGCOMM、NSDI、ATC、EuroSys 以及 IEEE/ACM Transactions on Networking 等会议、期刊上发表多篇重要论文。他也担任 NSDI、CoNEXT、ICNP 等顶级学术会议的程序委员会委员。
个人主页:https://snowzjx.me/
Google Scholar: https://scholar.google.com/citations?user=tDWLpawAAAAJ
DBLP: https://dblp.org/pid/155/4434.html
招生信息:当前,以ChatGPT、DeepSeek、LLaMA 等为代表的大语言模型正在重塑各类智能应用的形态。而支撑这些模型高效训练与推理的,是规模庞大、复杂高度协同的数据中心计算基础设施。在这样的系统中,成千上万台服务器需要在极短时间内完成参数同步、任务调度与数据交换,系统与网络设计的瓶颈正逐步成为制约AI发展的关键因素。
我的研究聚焦于面向大模型的机器学习系统与高性能网络基础设施。在网络层面,我们重点研究RDMA等低延迟、高带宽网络技术,探索其在跨节点通信中的控制平面优化与资源共享机制,以显著提升大模型在训练和推理阶段的整体性能。在系统层面,我们关注模型的“计算-通信”协同,包括多阶段计算解耦(如预填充/解码分离)、任务调度优化、张量缓存与高效内存管理等核心问题,从系统角度支撑大模型的弹性部署与高效运行。
欢迎对数据中心网络、RDMA 网络,尤其是分布式机器学习系统感兴趣的同学联系我!
有关更多研究方向的信息,请参阅我的 Research Statement (https://snowzjx.me/research-statement)。
十篇代表性论著:(*共同一作,#共同通讯)
Junxue Zhang, Xiaodian Cheng, Wei Wang, Liu Yang, Jinbin Hu, Kai Chen. FLASH: Towards a High-performance Hardware Acceleration Architecture for Cross-silo Federated Learning. NSDI 2023
Junxue Zhang, Chaoliang Zeng, Hong Zhang, Shuihai Hu, Kai Chen. LiteFlow: Towards High-performance Adaptive Neural Networks for Kernel Datapath. SIGCOMM 2022
Junxue Zhang, Wei Bai, Kai Chen. Enabling ECN for Datacenter Networks with RTT Variations. CoNEXT 2019
Junxue Zhang*, Xiaodian Cheng*, Liu Yang, Jinbin Hu, Ximeng Liu, Kai Chen. SoK: Fully Homomorphic Encryption Accelerators. ACM Computing Survey, 2024, Volume: 26, Issue: 12
Junxue Zhang, Xiaodian Cheng, Liu Yang, Jinbin Hu, Han Tian, Kai Chen. High-performance Hardware Acceleration Architecture for Cross-silo Federated Learning. IEEE Transactions on Parallel and Distributed Systems, 2024, Volume: 35, Issue: 8
Junxue Zhang, Chaoliang Zeng, Hong Zhang, Shuihai Hu, Kai Chen. LiteFlow: Towards High-performance Adaptive Neural Networks for Kernel Datapath (extended version). IEEE/ACM Transactions on Networking, 2024, Volume: 32, Issue: 1
Bin Yang, Dian Shen#, Junxue Zhang#, Hanlin Yang, Lunqi Zhao, Beilun Wang, Guyue Liu, Kai Chen. eNetSTL: Towards an In-kernel Library for High-Performance eBPF-based Network Functions. EuroSys 2025
Di Chai, Junxue Zhang#, Liu Yang, Yilun Jin, Leye Wang, Kai Chen#, Qiang Yang. Efficient Decentralized Federated Singular Vector Decomposition. ATC 2024
Xinyang Huang, Junxue Zhang#, Xiaodian Cheng, Hong Zhang, Yilun Jin, Shuihai Hu, Han Tian, Kai Chen#. Accelerating Privacy-Preserving Machine Learning with GeniBatch. EuroSys 2024
Hong Zhang, Junxue Zhang, Wei Bai, Kai Chen, Chowdhury Mosharaf. Resilient Datacenter Load Balancing in the Wilds. SIGCOMM 17