演讲摘要:近些年来,文本处理技术取得了很大进步。深度学习和大规模语言模型可以表达一定的句法和语义信息,为语言处理任务提供有力支撑。然而,在人类交流中,也有很多信息是在文字之外表达,比如社会常识和逻辑推理。这次报告汇报我们的一些尝试和探索,总结大规模训练的语言模型的相关能力与局限。
讲者简介:研究领域:基础自然语言处理及其应用。已发表CCF A、B 类国际会议论文100余篇。谷歌引用超过6000次,H因子39。曾获COLING2018和IALP2017最佳论文奖,CCF自然语言处理与中文计算青年新锐奖。在国内外的相关领域的顶级会议ACL、COLING、EMNLP、NAACL上多次担任领域主席 (area chair),并在相关领域的顶级期刊如TACL担任执行主编(action editor),ACM TALLIP和IEEE TBD副主编 (associate editor)。
版权所有:中国计算机学会技术支持邮箱:conf_support@ccf.org.cn