本课程面向硕博研究生,开课四年以来受到参课学生的一致好评。本课程针对与自然语言处理具有发展快、创新点多、知识容量大的特点,采用经典模型和实时热点互相结合的授课模式,从经典的语言模型延伸至各个NLP任务的新范式,以点到面构建出自然语言的知识框架。相较于国外同类课程,本课程兼顾了自然语言任务的基础范式,兼容并序,深入浅出地讲解了传统自然语言任务的范式。以传统范式为主线,进一步细化,进一步深挖知识点。与此同时,本课程与国外课程的优势结合,针对于最新的研究点以及新的研究思路,加以提炼和讲解,在教授基础知识的同时,拓展学生思路,为学生的研究思路提供新的方向。相较于国内课程,本课程采用全英文授课,由于计算机发展速度快,新名词产生速度快,相应的词汇翻译尝尝会成为阻碍,同一名词在翻译过程中会产生不一致的问题。直接采用英文授课有效地避免了歧义的产生,使学生更易理解新名词,寻找文献更加方便。
课程领域相关研究成果:
[1]K He, Y Huang, R Mao, T Gong, C Li, E. Cambria "Virtual prompt pre-training for prototype-based few-shot relation extraction," in Expert Systems with Applications, 2023.
[2]K. He, R. Mao, T. Gong, C. Li and E. Cambria, "Meta-based Self-training and Re-weighting for Aspect-based Sentiment Analysis," in IEEE Transactions on Affective Computing, 2022.
[3]K He, R Mao, T Gong, E Cambria, C Li, "JCBIE: a joint continual learning neural network for biomedical information extraction," BMC bioinformatics, 2022.