Proceedings of the 23rd Chinese National Conference on Computational Linguistics (Volume 2: Frontier Forum)

Xin Zhao (Editor)


Anthology ID:
2024.ccl-2
Month:
July
Year:
2024
Address:
Taiyuan, China
Venue:
CCL
SIG:
Publisher:
Chinese Information Processing Society of China
URL:
https://aclanthology.org/2024.ccl-2/
DOI:
Bib Export formats:
BibTeX MODS XML EndNote
PDF:
https://aclanthology.org/2024.ccl-2.pdf

pdf bib
从多模态预训练到多模态大模型:架构、训练、评测、趋势概览(From Multi-Modal Pre-Training to Multi-Modal Large Language Models: An Overview of Architectures, Training,)
Li Zejun (李泽君) | Zhang Jiwen (张霁雯) | Wang Ye (王晔) | Du Mengfei (杜梦飞) | Liu Qingwen (刘晴雯) | Wang Dianyi (王殿仪) | Wu Binhao (吴斌浩) | Luo Ruipu (罗瑞璞) | Huang Xuanjing (黄萱菁) | Wei Zhongyu (魏忠钰)

“多媒体信息在人类社会的发展历程中有着至关重要的作用,构建具有多模态信息处理能力的智能系统也是通往通用人工智能的必经之路。随着预训练技术的发展以及对于通用模型的需求,多模态的研究也从早期的任务特定的方法转移到了构建统一泛用的多模态基座模型上。初步的统一多模态模型探索受到BERT启发,从表征学习的角度出发构建能为不同下游任务提供有效初始化的多模态预训练模型,这类方法尽管有效但仍然在泛用性方面受限于预训练中微调范式,无法更广泛高效地应用。近年来随着大语言模型的发展,以大语言模型为基座的多模态大模型则展现出了巨大的潜力:此类模型有着强大的信息感知,交互,以及推理能力并且能有效泛化到多样的场景下,为新时代的通用人工智能系统提供了切实可行的思路。本文将从构建统一多模态模型的角度出发,介绍和梳理相关工作的发展,从多模态预训练到多模态大模型,介绍对应的架构,训练,评测方法以及发展趋势,为读者提供一个全面的概览。”

pdf bib
大模型工具学习进展与挑战(Challenges and Advances in Tool Learning with Foundation Models)
Lin Yankai (林衍凯)

“本论文综述了大模型工具学习的最新进展与挑战。工具作为人类智慧和能力的延伸,在提升生产力和解决问题方面至关重要。随着大语言模型(Large Language Models)的突破,工具学习得到了广泛关注,通过动态调用外部工具,显著增强了模型解决复杂问题的能力。本文介绍了一个通用的大模型工具学习框架,包括控制器、工具集、环境和感知器四个核心组件。我们详细探讨了四个关键问题:意图理解、规划、工具使用和记忆管理。在意图理解方面,模型需要准确解析用户的输入和隐含意图。规划能力使模型能够将复杂任务分解为可执行的子任务。工具使用方面,介绍了示范学习、教程学习和探索学习三种主要训练策略,通过观察人类示范、阅读工具手册和直接探索来提升模型能力。记忆管理方面,提出了动态记忆管理和信息优先级管理等方法,以提高模型处理复杂任务的效率和准确性。本文分析了当前大模型工具学习的研究进展和每个领域的挑战,为未来研究提供了有价值的见解。希望通过这篇综述,能帮助研究人员和开发者更好地理解和推进大模型工具学习领域的发展。”

pdf bib
大模型逻辑推理研究综述(Survey on Logical Reasoning of Large Pre-trained Language Models)
Liu Hanmeng (刘汉蒙) | Zhang Yue (张岳)

“理解自然语言的逻辑结构和关系是机器理解的核心任务,也是人工智能领域的关键研究议题。随着大数据和计算能力的提升,预训练语言模型在逻辑推理方面取得了显著进展,使得大规模模型的逻辑推理能力成为研究的新焦点。本综述旨在全面梳理大模型在逻辑推理领域的研究进展,探讨其对人工智能系统智能水平评估的重要性及其在推动人工智能发展中的作用。 本文首先界定了大模型逻辑推理能力的研究范畴,系统性地讨论了逻辑推理的类型和 特点,并回顾了相关理论的发展,为研究提供了清晰的框架。接着,从任务形式和数 据基准的角度,详细介绍了逻辑推理研究的基础工作,为理解大模型的性能提供了基 准。进一步,本文深入分析了大模型在逻辑推理能力上的现状,通过不同推理类型的 案例研究,展示了大模型的能力表现。同时,本文还探讨了提升大模型逻辑推理能力 的方法,包括预训练、指令微调、解码策略和神经符号混合方法,并对这些方法进行 了比较分析。最后,本文提出了对未来研究方向的展望,旨在激发更多的学术讨论和 探索,推动逻辑推理能力研究的进一步发展。”

pdf bib
大模型时代的多语言研究综述(A Survey of Multilingual Research in the Large Language Model Era)
Gao Changjiang (高长江) | Zhou Hao (周昊) | She Shuaijie (佘帅杰) | Zhong Haoming (钟昊鸣) | Liu Sizhe (刘斯哲) | Lai Zhejian (赖哲剑) | Wang Zhijun (王志军) | Huang Shujian (黄书剑)

“进入大语言模型时代以来,传统的多语言研究模式发生了巨大变化。一些传统任务得到了突破性的解决,也出现了多种新任务,以及许多以多语言大模型为基础、面向大模型能力提升的多语言研究工作。本文针对研究领域中的这一新变化,整理归纳了进入大模型时代以来的多语言研究进展,包括多语言大模型、数据集、任务,以及相关的前沿研究方向、研究挑战等,希望能为大模型范式下的多语言研究的未来发展提供参考和帮助。”

pdf bib
大语言模型合成数据方法简述(A Brief Introduction to Synthetic Data for Large Language Model)
Li Peiji (李培基) | Ma Yichuan (马逸川) | Yan Hang (颜航)

“大语言模型在过去两年受到了极大的关注,并引起了对通用人工智能的广泛讨论。为了实现通用人工智能,合成数据被认为是其中非常关键的一环。本文将当前常见的数据合成方法归为三类,基于蒸馏的合成数据、基于模型自我进化、基于工具的合成数据。针对每一类合成数据方法,我们简要介绍了几种主流的做法,以期概览各类方法的基本思路以及异同。当前大部分合成数据方法都基于蒸馏,尽管这些方法取得了良好的效果,但其实质是将更强的大模型蒸馏到更小的大模型。这样的方法从降低大模型推理成本的角度具有实际意义,但对于进一步提升大模型能力上限作用有限。基于模型自我进化和基于工具的合成数据研究相对偏少,对于持续提升模型能力,这两个方向需要有更多探索。”

pdf bib
大语言模型时代的信息检索综述(A Review of Information Retrieval in the Era of Large Language Models)
Pang Liang (庞亮) | Deng Jingcheng (邓竞成) | Gu Jia (顾佳) | Shen Huawei (沈华伟) | Cheng Xueqi (程学旗)

“以大语言模型为代表的生成式人工智能迅猛发展,标志着人工智能从判别时代向生成时代的转变。这一进步极大地推动了信息检索技术的发展,本文对大语言模型对信息检索领域的影响进行了深入的综述。从性能改进到模式颠覆,逐步展开论述大语言模型对信息检索领域的影响。针对传统信息检索流程,大语言模型凭借强大的语义理解和建模能力,显著增强索引、检索和排序等信息检索模块的性能。同时,文章也探讨了大语言模型可能取代传统信息检索的趋势,并催生了新的信息获取方式,或将是新一次信息时代的寒武纪。此外,大语言模型对内容生态的深远影响也值得关注。”

pdf bib
对齐的理论、技术与评估(Theories, Techniques, and Evaluation of AI Alignment)
Ji Jiaming (吉嘉铭) | Qiu Tianyi (邱天异) | Chen Boyuan (陈博远) | Yang Yaodong (杨耀东)

“人工智能对齐(AI Alignment)旨在使人工智能系统的行为与人类的意图和价值观相一致。随着人工智能系统的能力日益增强,对齐失败带来的风险也在不断增加。数百位人工智能专家和公众人物已经表达了对人工智能风险的担忧,他们认为乜减轻人工智能带来的灭绝风险应该成为全球优先考虑的问题,与其他社会规模的风险如大流行病和核战争并列(CAIS,2023)。为了提供对齐领域的全面和最新概述,本文深入探讨了对齐的核心理论、技术和评估。首先,本文确定了人工智能对齐的四个关键目标:鲁棒性(Robustness)、可解释性(Interpretability)、可控性(Controllability)和道德性(Ethicality)(RICE)。在这四个目标原则的指导下,本文概述了当前人工智能对齐研究的全貌,并将其分解为两个关键组成部分:前向对齐和后向对齐。本文旨在为对齐研究提供全面且对初学者友好的调研。同时本文还发布并持续更新网站 www.alignmentsurvey.com,该网站提供了一系列教程、论文集和其他资源。更详尽的讨论与分析请见 https://arxiv.org/abs/2310.19852。”

pdf bib
基于大语言模型的自主智能体概述(A Survey on Large Language Model based Autonomous Agents Xu Chen)
Chen Xu (陈旭)

“近年来,基于大语言模型的自主智能体受到了学术界和工业界的广泛关注,其关键在于利用大语言模型作为核心控制器,并设计相应的辅助模块增强智能体在动态环境中的演化和适应能力,从而提升智能体自主解决任务的能力。本文通过总结过去工作,抽象出智能体设计的通用范式,并讨论了大模型时代自主智能体能力提升的途径。我们还从个体拓展到系统,深入探讨了多自主智能体系统常见的交互机制和面临的重要问题。”

pdf bib
浅谈大模型时代下的检索增强:发展趋势、挑战与展望(Enhancing Large Language Models with Retrieval-Augmented Techniques: Trends, Challenges, and Prospects)
Feng Zhangyin (冯掌印) | Zhu Kun (朱坤) | Ma Weitao (马伟涛) | Huang Lei (黄磊) | Qin Bing (秦兵) | Liu Ting (刘挺) | Feng Xiaocheng (冯骁骋)

“大型语言模型(LLM) 在各种自然语言任务上表现出了卓越的性能,但它们很容易受到过时数据和特定领域限制的影响。为了应对这些挑战,研究人员整合不同来源的外部信息来增强大语言模型,具体方法如检索增强等。在本文中,我们综合讨论了检索增强技术的发展趋势,包括检索时机规划、检索技术、以及检索结果的利用。此外,我们介绍了当前可用于检索增强任务的数据集和评价方法,并指出了应用和潜在研究方向。我们希望这项综述能够为社区提供对该研究领域的快速了解和全面概述,以启发未来的研究工作。”

pdf bib
生成式文本质量的自动评估方法综述(A Survey of Automatic Evaluation on the Quality of Generated Text)
Lan Tian (兰天) | Ma Ziao (马梓奥) | Zhou Yanghao (周杨浩) | Xu Chen (徐晨) | Mao Xianling (毛先领)

“人工评估,作为生成式文本质量评价的金标准,成本太高;自动评估,核心思想在于要使其评估结果与人工评估高度相关,从而实现对生成式文本质量的自动化分析和评价。随着自然语言处理领域相关技术的迭代进步,使得生成式文本质量的自动评估技术,已然经历了多次技术范式的迭代。然而,学界至今依然缺乏对生成式文本质量自动评估技术的系统化总结。因此,本文将首先系统地对已有的生成式文本自动评估方法进行归纳总结,然后分析了生成式文本自动评估方法的主要发展趋势,最后为了使读者更加宏观地了解自动评估整体,对自动评估领域整体的未来研究方向进行了探讨和展望。”