师资队伍

首页  师资队伍  教职工概况  wxz  中文信息
头像

王晓智

助理教授博士生导师

电话:

邮箱:

地址: 信息楼1615

  • 个人简历
  • 教学
  • 研究领域
  • 研究成果
  • 奖励荣誉
  • 概况

    王晓智是清华大学深圳国际研究生院助理教授、特别研究员。他于清华大学计算机系获得学士和博士学位。他的研究领域为大语言模型、自然语言处理和知识工程,重点关注大模型机理可解释性和机理指导的大模型架构、训练及评测改进。


    王晓智助理教授于ACL、EMNLP、ICLR等人工智能领域重要学术会议及期刊发表多篇论文,获得超过4000次引用,并于ACL、EMNLP等重要会议多次担任领域主席。他的成果曾获EMNLP杰出论文奖、ESI高被引论文等荣誉。


    课题组长期招聘具有科研热情和自驱力的博士、硕士、博士后及科研实习生,欢迎联系。

    学术主页:https://bakser.github.io



    教育经历

    20208-20256月,清华大学,计算机科学与技术专业,博士

    20168-20206月,清华大学,计算机科学与技术专业,学士


    工作经历

    20258-至今,清华大学深圳国际研究生院,数据与信息研究院,助理教授/特别研究员

    20242-20248月,伊利诺伊大学厄巴纳-香槟分校,访问学者

    20197-20199月,蒙特利尔学习算法研究所(Mila),访问学者


    学术兼职

    领域主席: ACL Rolling Review, ACL/EMNLP/NAACL 2024, ACL/EMNLP 2025

    研讨会共同组织者: AAAI/ACL 2025 Workshop Towards Knowledgeable Foundation Models

    审稿人/程序委员会委员: AAAI, IJCAI, COLING, SIGIR, ACL, EMNLP, NeurIPS, IEEE/ACM TASLP, IEEE TKDE

    社会兼职

  • 教学课程

    研究生指导

  • 研究领域

    王晓智助理教授的研究领域为大语言模型、自然语言处理和知识工程,主要研究兴趣包括:

    • 大模型机理可解释性:理解大模型内部工作机理,为模型行为提供解释的同时探索其形成智能的科学原理。

    • 机理指导的大模型改进:基于工作机理和内部指征改进大模型架构、训练和评测,如探索稀疏激活架构、内部状态指导的数据筛选和模型评测等,从而基础性地提升大模型系统的知识、效率、安全性和自主性。

     

    他还从事过知识获取和知识赋能大模型方向的研究。在这些方向上,他的代表性成果包括大模型技能神经元定位技术、大模型知识理解能力综合评测体系和增强技术等。他于ACL、EMNLP、ICLR 等国际顶级学术会议、期刊以(共同)第一作者身份发表论文十余篇,并获得3项国家发明专利授权。他的谷歌学术引用超过4400 次,研究成果获得ESI高被引论文、EMNLP 杰出论文奖等荣誉。


    主要项目

  • 代表性论文

    完整列表见https://bakser.github.io/publications 


    [1] Wang X, Gao T, Zhu Z, et al. KEPLER: A unified model for knowledge embedding and pre-trained language representation[J]. Transactions of the Association for Computational Linguistics (TACL), 2021, 9: 176-194.


    [2] Wang X, Wang Z, Han X, et al. MAVEN: A Massive General Domain Event Detection Dataset[C]//Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP). 2020: 1652-1671.


    [3] Wang X, Peng H, Guan Y, et al. MAVEN-ARG: Completing the Puzzle of All-in-One Event Understanding Dataset with Event Argument Annotation[C]//Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL). 2024: 4072-4091.


    [4] Wang X*, Chen Y*, Ding N, et al. MAVEN-ERE: A Unified Large-scale Dataset for Event Coreference, Temporal, Causal, and Subevent Relation Extraction[C]//Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP). 2022: 926-941.


    [5] Wang X*, Wen K*, Zhang Z, et al. Finding Skill Neurons in Pre-trained Transformer-based Language Models[C]//Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP). 2022: 11132-11152.


    [6] Wang Z*, Wang X*, Han X, et al. CLEVE: Contrastive Pre-training for Event Extraction[C]//Proceedings of the Annual Meeting of the Association for Computational Linguistics (ACL). 2021: 6283-6297.


    [7] Su Y*, Wang X*, Qin Y, et al. On Transferability of Prompt Tuning for Natural Language Processing[C]//Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics (NAACL). 2022: 3949-3969.


    [8] Peng H*, Wang X*, Hu S, et al. COPEN: Probing Conceptual Knowledge in Pretrained Language Models[C]//Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP). 2022: 5015-5035.


    [9] Peng H*, Wang X*, Yao F, et al. OmniEvent: A Comprehensive, Fair, and Easy-toUse Toolkit for Event Understanding[C]//Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP): System Demonstrations. 2023: 508-517.


    [10] Peng H*, Wang X*, Yao F*, et al. The Devil is in the Details: On the Pitfalls of Event Extraction Evaluation[C]//Findings of the Association for Computational Linguistics: ACL 2023. 2023: 9206-9227.


    [11] Yu J*, Wang X*, Tu S*, et al. KoLA: Carefully Benchmarking World Knowledge of Large Language Models[C]//Proceedings of the International Conference on Learning Representations (ICLR). 2024.


    [12] Qin Y*, Wang X*, Su Y, et al. Exploring Universal Intrinsic Task Subspace for Few-Shot Learning via Prompt Tuning[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2024, 32: 3631-3643.


    代表性著作

    主要专利成果

    王晓智,刘知远,韩旭,等. 基于文本的事件检测方法、装置、计算机设备及存储介质: 中国, CN110188172A[P]. 2022-10-28.

    刘知远, 王晓智, 韩旭, 等. 一种基于对抗训练机制的多语言实体关系抽取方法及系统: 中国, CN110852066A[P]. 2021-06-01.

    刘知远,王晓智,王子奇,等. 文本中事件角色的处理方法、装置、设备及存储介质: 中国, CN110781302A[P]. 2024-06-21.


    其他成果

  • 荣誉奖项

    2025清华大学计算机系优秀博士毕业生

    2024博士生国家奖学金

    2023EMNLP杰出论文奖

版权所有@清华大学深圳国际研究生院 京ICP备15006448号 京公网安备 110402430053 号