大数据团队实现大模型的低成本高性能应用

作者:摄影: 视频: 来源:计算与智能创新学院发布时间:2025-11-19

计算与智能创新学院杨卫东团队(大数据与知识工程实验室)在LLM for Software Engineering方向上取得突破,围绕“小模型缺知识、大模型落地难”这一核心问题,提出了适用于终端场景的多专家协同知识蒸馏框架(LUK),以及适用于云端协同推理的大小模型自适应分析框架(AdaptiveLog)。研究成果分别发表于软件工程领域国际顶级期刊IEEE Transactions on Software Engineering(TSE)与ACM Transactions on Software Engineering and Methodology(TOSEM)。

大语言模型(LLM,如ChatGPT等)在软件工程相关特定任务(LLM for Software Engineering)中展现出巨大前景。大语言模型知识丰富、能力强,但在专用领域成本高、响应延迟;传统的小型语言模型(SLM,如 BERT等)高效却能力有限,难以深入理解专业知识与语义上下文。

为应对上述挑战,杨卫东团队借鉴软件工程中的瀑布模型,通过“总监——执行者——评估者”三类角色提示,以日志分析为专用任务,引导大模型协作构建精准、完整的日志领域知识体系。实验结果表明,经LUK增强后的小模型(如110M参数的BERT)在多项日志理解任务中展现出接近专家的分析能力。仅需使用1%的标注数据,其性能便可逼近全量监督学习的水平,同时,其推理速度比直接调用GPT-4o快700倍以上,为在资源受限的边缘终端部署强大的日志分析能力提供了可能。

 来源:计算与智能创新学院


制图:实习编辑:责任编辑:

相关文章

文化校历

新闻分类

推荐视频

图说威尼斯赌场,澳门现金网

新闻排行

周排行 月排行

  • 联系我们
    fudan_news@163.com
    021-65642268