11月24日,2025年度字节跳动奖学金颁奖典礼在北京举行,共有20位博士生脱颖而出,荣获本年度奖项。字节跳动奖学金计划(ByteDance Scholarship Program)自2021年启动,每年评选一次,旨在支持计算科学、基础科学、人工智能等相关领域具有卓越潜力的在校学生,鼓励他们以技术回馈社会、引领未来。

本次奖学金评选共收到来自中国、新加坡66所高校的500余份申请。最终,来自清华大学、北京大学、复旦大学、中国人民大学、华中科技大学、香港大学、新加坡国立大学、南洋理工大学的20位博士生入选,研究方向涵盖大模型、机器学习、多模态、AI Infra、机器人、AI for Science、硬件等多个领域。
其中,中国人民大学高瓴人工智能学院2021级直博生戴孙浩(导师:徐君教授)和2022级直博生聂燊(导师:李崇轩副教授)入选本年度字节跳动奖学金,展现了学院在人工智能前沿研究领域的人才培养实力。

戴孙浩,高瓴人工智能学院2021级直博生,导师为徐君教授,曾赴新加坡国立大学 NExT++实验室访问交流一年。他的主要研究方向为信息检索与推荐系统,致力于构建负责任可信赖的智能信息获取系统。博士期间,他围绕上述方向已在SIGIR、KDD 等国际顶级会议发表论文20余篇(第一/共一作者12篇),谷歌学术引用累计1200余次,曾获SIGIR 最佳短文论文提名,并连续两年获得博士生国家奖学金。
在大语言模型快速发展重塑信息检索的背景下,戴孙浩同学揭示并深入研究了人工智能生成内容导致的信息检索“源偏差”问题,相关成果获国内外学者关注,并多次受邀作报告。他还曾在KDD等国际会议上组织关于“大模型时代可信信息检索”的Tutorial报告。此外, 他的多项研究成果(如OnePiece、RecGPT等)落地于淘宝、Shopee等工业实际场景,改善了用户的使用体验。

聂燊,高瓴人工智能学院2022级直博生,导师为李崇轩副教授。他的主要研究方向是深度生成模型,特别关注可扩展的多模态扩散模型。博士期间,他围绕上述方向在ICLR、NeurIPS、ICML等机器学习国际顶级会议发表多篇论文,谷歌学术累计引用1400余次,曾获 DeLTa@ICLR 2025 Long Paper Best Paper Award,NeurIPS 2025 Oral等奖项。
大语言模型在近期受到全球广泛的关注,GPT、Deepseek等主流大语言模型均采用自回归式从左到右生成,存在生成效率低、缺乏反向推理能力等问题。聂燊同学作为第一作者开发了扩散大语言模型LLaDA,挑战了大语言模型依赖GPT范式的传统认知。LLaDA的发布时间早于斯坦福Mercury、谷歌Gemini Diffusion等扩散语言模型,在社区产生了广泛影响。目前,LLaDA系列在Hugging Face下载量已超过260万次。
检测到您当前使用浏览器版本过于老旧,会导致无法正常浏览网站;请您使用电脑里的其他浏览器如:360、QQ、搜狗浏览器的速模式浏览,或者使用谷歌、火狐等浏览器。
下载Firefox