微信里点“发现”,扫一下
二维码便可将本文分享至朋友圈
演讲摘要:2023 年以来,大型语言模型的发展速度令人瞩目,在众多领域展现出了强大的能力,能够在很多复杂任务上达到70 分的水平。然而,要推动模型在特定任务达到 90 分的高标准,仍面临着重大挑战。本次演讲中,将重点围绕大语言模型的三个核心阶段——预训练、有监督微调以及强化学习,结合如何提升大型语言模型的能力。
讲者简介:张奇,复旦大学计算科学技术学院教授、博士生导师。兼任上海市智能信息处理重点实验室副主任、中国中文信息学会理事、CCF 大模型论坛常务委员。在 ACL、ICML、ICLR、EMNLP 重要国际会议和期刊等发表论文 200 余篇,著有《自然语言处理导论》、《大规模语言模型:从理论到实践》。获得上海市“晨光计划”人才计划、复旦大学“卓越2025”、人才培育计划等支持,获得钱伟长中文信息处理科学技术一等奖、汉王青年创新一等奖、上海市科技进步二等奖、教育部科技进步二等奖等奖项。