计算机如何“理解”语言?
——华南师大附中“博士论坛”系列16开讲
2025年6月25日,第16期“博士论坛”活动在华南师范大学附属中学知识城校区成功举行。本次活动邀请了信息与通用技术科博士杜嘉华老师作为主讲嘉宾。计算机具备高速运算能力,但本质上只能使用0和1来表示数据和指令,无法直接对文字进行处理。杜老师以“计算机如何‘理解’语言”为主题,与同学们一同开启通往自然语言处理领域的大门。
讲座伊始,杜老师分析当前大语言模型的使用形势,并指出计算机处理自然语言的挑战性。从词袋模型开始,杜老师阐述计算机表示文本的早期形态,以及对文本统计特征的提取方式。随后,他讲解词向量模型如何更好地捕捉词语之间的语义关系,实现从单纯统计向语义理解的范式转变。杜老师重点介绍循环神经网络(RNN)及其变体在处理序列数据过程中编码上下文信息的方法。为了解决RNN在长距离依赖问题上的局限性,注意力机制应运而生,帮助模型有效关注文本中的关键信息,极大提升了对捕捉文本语义的能力。Transformer框架更是凭借自注意力机制的并行计算能力,催生了近年来备受瞩目的大语言模型。
此外,杜老师介绍了以Transformer框架为核心的语言模型架构演变过程,以及基于Decoder-only架构的GPT模型系列。他提到,随着模型参数的不断增加、训练数据的日益丰富以及算法的持续优化,大语言模型生成的文本日趋连贯流畅,且在不需要下游任务训练的情况下,展现出了令人惊叹的涌现能力。通过展示具体实际应用案例,同学们深刻体会到大语言模型在众多自然语言处理任务中取得的成果。在讲座的最后,杜老师结合近三年科研文献,从技术角度引导同学们探讨大语言模型是否真正理解语言,以及大语言模型幻觉与推理的本质;同时从人文角度引导同学们重新审视利用大语言模型进行创新的含义,思考人工智能时代下人类与大语言模型的关系。同学们积极参与互动,现场气氛活跃。
本次讲座不仅拓宽了同学们的学术视野,更激发了同学们探索人工智能和自然语言处理等领域的热情。相信在未来的生活和学习中,同学们能够带着从此次讲座中汲取的知识和灵感,更好地理解技术,更合理地使用技术工具,为推动科技进步贡献力量。
部分学生笔记
部分学生感想
文字与图片:博士工作站
初审:李之宁
复审:贺建
终审:肖朝云