大模型专题:2023爱分析·大模型厂商全景报告
本节重点介绍大模型技术领域的深入分析报告:爱分析研究院发布的《2023年大模型厂商全景图鉴》
(报告出品方:爱分析 )
报告共计:80 页
研究范围定义
大模型由海量数据支撑的强大算力驱动下进行系统性训练而实现多端应用能力的智能系统。自2023年以来ChatGPT引领全球人工智能技术革新促使中国多款重量级大模型相继 public release 众多互联网行业领军企业纷纷投入资源推进大模型研发使得中国的大模型市场呈现‘百团争战’态势而2023年则被广泛视为人工智能发展的关键一年。
在企业领域中,大模型的推进速度令人 impressions. 到了2023年初时,企业管理层对于大model的概念还停留得相当浅显. 经过半年时间, 大model的应用场景从话题讨论阶段发展到实际落地应用. 大model管理阶层渴望了解以下几点:第一, 大model能为企业带来哪些变革;第二, 其具体的应用路径是什么;第三, 如何提高投资回报率;第四, 应采取哪些准备措施来拥抱这一技术. 这些变化表明, 企业在技术变革方面的预期正在逐渐被验证.
从市场规模数据的分析来看,在一定程度上可以反映企业在大模型应用落地方面的热情
我们公司认为,在技术架构维度上,默认情况下默认情况下,默认情况下,默认情况下,默认情况下,默认情况下,默认情况下,默认情况下,默认情况下,默认情况下,默认情况下 getDefaultLayerStructure()默认情况下 getDefaultLayerStructure()默认情况

市场分析与厂商评估
知识库问答
甲方核心需求: 由于成本可控、验证速度快以及覆盖的企业内部用户数量较多等多种因素综合作用下,《人工智能》领域的解决方案逐渐成为大模型在企业落地的主要选择之一。从渗透率角度来看,《人工智能》技术正在逐步深入到各个关键环节中。具体而言,在构建过程中的知识体系形成较为完善,在校验过程中能够快速验证其准确性,并且在实际应用中展现出较高的效率。

基于大模型技术在知识库场景中的渗透应用现状分析表明,在线下企业对于知识型问答系统提出了三大核心诉求:其一在于缩短冷启动周期时间;其二在于减少对人工校验环节的依赖;其三则聚焦于应对幻觉现象。
优化知识库冷启动效率。当前阶段,在知识构建过程中依赖话术师较多,他们主要负责整理问答对并扩写相似问等事务工作,并且这类工作 heavily依赖话术师个人经验积累的影响范围大小及工作量差异性等客观因素的影响程度如何这一问题尚未得到系统性的研究与评估。
在完成知识构建后进行知识校验环节的人工干预程度较高,在校验准确性与语法细节方面仍需人工配合完成。
在知识交互方式变革的过程中存在诸多挑战性问题亟待解决,在传统知识检索模式下无法直接为用户提供精准答案这一现象亟待根本性突破。
厂商能力要求: 厂商需具备三项核心能力:其一是需运用大模型技术实现数据分类、信息提取以及问题拆解;其二是应能应对关键验证问题;其三是需掌握RAG技术和模型微调方法以降低幻觉倾向。
- 具备利用大模型进行知识分类、知识抽取和问答对拆分的能力。引入大模型之后,首先可以做 知识域的自动分类。第二个作用是自动抽取知识点的实体和关系,本质是基于大模型做预处理,降低对人工的依赖程度。第三个作用是问答对拆分和相似问扩写。过去,该环节非常依赖话术师,有大模型以后可以实现自动化,相关人员则转变为审核职能,即主要负责知识管理,而非 知识创建。
- 具备解决两个校验难题的方案。直接利用大模型进行知识校验存在两个比较明显的问题。首先 是过度校验。即原来的回答比较准确,但大模型会演绎出很多新内容,导致校验工作质量下降。 第二个问题是新词校验存在滞后性,因为大模型背后的知识是无法实时更新的。厂商可以通过 Prompt 工程、RAG、微调大模型等方式解决上述两个问题。
- 具备 RAG、微调等缓解大模型幻觉的能力。企业需要利用大模型的生成能力直接生成用户所需 的答案。但是,交互方式的变化也为知识库应用带来新的挑战,即大模型幻觉导致的答案不可信。厂商需要具体幻觉大模型幻觉的能力,主要有 RAG、微调两种方式。RAG 是指在大语言模 型推理生成答案时,额外检索调用外部的知识,然后综合其检索结果进行回答生成。RAG 为大 模型提供了准确、丰富、可解释的知识支撑,从而实现更准确的语义理解、答案推理以及答案 解释。微调则是厂商根据行业或企业数据,对基础大模型进行优化,以便其更好地胜任特定任务。对基础大模型进行后训练也是一种缓解大模型幻觉的方式,但较高的成本导致其可行性较低。













报告共计:80 页
