首页 > 女生小说 > 离语 > 第274章 讲座

第274章 讲座(2/2)

目录

意图。微调过程分为预训练、监督微调、设计奖励模型和反馈优化。桑基韬等人根据 chatGpt 的对

话对象和定位将其应用分为四个层次:数据生成器、知识挖掘器、模型调度器和人机交互界面。在

多模态领域,Visual chatGpt、-ReAct 和 hugggGpt 让视觉模型与 chatGpt 协同工作来完成视

觉和语音任务。

除此以外,许多类 chatGpt 的大模型也同样在自然语言处理方面展示出来了较好的效果。

LLaA 是应该从 7billion 到 65billion 参数的语言模型,不需要求助于专有的数据集。清华大学

提出了一种基于自回归填充的通用语言模型 GL 在整体基于 transforr 的基础上作出改动,在一

些任务的表现上优于 Gpt3-175b。

大语言模型,例如 Gpt 系列、LLaa 系列、Gei 系列等,在自然语言处理方面取得了显着的

成功,展示了超强的性能,但仍面临诸如幻觉、过时的知识、不可追溯的推理过程等挑战。2020

年,由 Lewis 等人引入的检索增强生成方法,通过整合来自外部数据库的知识,然后再继续回答问

题或生成文本。这个过程不仅为后续阶段提供信息,而且确保响应是基于检测到的证据的,从而显

着提高输出的准确性和相关性。在推理阶段从外部知识库动态检索信息使 RAG 能够解决诸如生成幻

觉等问题。RAG 与 LL 的集成得到了迅速的应用,提高了自然语言处理任务的性能,并且使得模型

能够更好地利用外部知识和背景信息。

自 2020 年起,全球大语言模型在自然语言处理、计算机视觉、语音识别、推荐系统等领域表

现出卓越技术优势,市场规模持续增长,预计到 2028 年将达到 1095 亿美元。国外大模型产品研发

在 2021 年进入高速发展期,谷歌、openAI、英伟达、微软等公司都推出了自主研发的大模型,截

至 2023 年 7 月底,国外已发布了 138 个大模型。我国大模型发展迅速,与国际前沿保持同步,百

度、腾讯、清华大学、北京航空航天大学等单位都推出了自己的大模型,截至 2023 年七月底,我

国已发布 130 个大模型。

2.2 知识抽取

知识抽取主要分为命名实体识别和关系抽取两方面。命名实体识别(NER)任务,旨在识别与

特定语义实体类型相关联的文本跨度。该任务最早于 1991 年由 Rau 等人提出。随着信息理解、人

工智能等领域的顶级会议对 NER 任务的评测,其定义逐渐细化和完善,并逐渐成为自然语言处理

(NLp)领域的重要组成部分。然而,不同领域对实体类型的定义存在差异,因此 NER 模型的构建

取决于特定领域任务需求,通常涵盖人物信息、地点信息和组织机构信息等。对于英语、法语、西

班牙语等外语文本,通常采用单词作为基本单位,因此基于这些语言的 NER 模型主要关注单词本身

的语义特征和上下文信息。然而,中文语料文本通常由字符构成,需要考虑字符的语义信息和词汇。

特征,同时引入其他表征信息来提升模型性能,如中文分词(cwS)、语义部分标签(poS)等外部

信息,因此构建中文命名实体识别(ER)模型更为复杂。目前,NER 任务的研究方法主要包括基

于词典和规则的方法、基于机器学习(L)的方法以及基于深度学习(dL)的方法。

今天为什么讲座要那么长时间。

目录
返回顶部