大白话70个你必须知道的AI重要概念(二)

人工智能尤其是生成式AI领域的技术迭代步伐太快,各种概念层出不穷。有些是新概念,但有更多其实是早已存在多年而不为普罗大众了解的技术概念,而当GPT已经家喻户晓、像智能手机普及那样进入千家万户的时候,一些非常抽象的概念术语,是时候尝试以大白话、类比的方式去重新阐述。

大白话70个你必须知道的AI重要概念(二)
Photo by Steve Johnson / Unsplash

本文按英文起首字母顺序,整理了70个常用的生成式AI领域常用概念,试图以大白话进行诠释,如果你不求甚解、但也求略解的话,欢迎收藏。第一部分从A到I,第二部分从L到P,第三部分从Q到Z

L

36 Large Language Model (LLM): 是一种人工智能模型,旨在理解和生成人类语言。它们通过在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。类比地说,可以将LLM看作是一种语言“大师”,就像你的语文老师一样,可以理解和生成人类语言,帮助你学习写作、阅读和表达。同样,LLM也可以理解和生成人类语言,完成各种任务,例如翻译、文本总结、情感分析等等。

37 Latent Space: 潜在空间。是机器学习模型学习到的数据的低维表示。这种压缩表示捕捉了数据中的基本特征和关系,使模型能够高效地执行图像生成、翻译和异常检测等任务。类比地说,可以将Latent Space看作是一种压缩存储数据的方式,就像将一张高清图片压缩成一个小文件一样,只保留了最重要的信息。又例如地图上的地形图,将复杂的地形压缩为一个二维图像,使我们可以快速了解地形的整体情况。潜在空间也是如此,它将高维的数据压缩为一个低维的表示,使模型能够快速理解数据之间的关系。

38 Latent diffusion: 潜变量扩散。是一种生成建模技术,它使用扩散过程逐渐向数据的潜在表示中添加噪声。通过反转这个过程,模型可以学习去噪数据并生成类似于训练数据的新样本。潜在扩散模型已被证明对于生成高质量的图像、文本和其他类型的数据非常有效。类比地说,可以将潜在扩散看作是一种去噪技术,就像在一张模糊的照片上逐渐添加细节,最终得到一张清晰的照片一样。

39 Llama:Meta(Facebook)开源的大语言模型,自其发布以来,开源AI社区已经微调并发布了数以千计的Llama衍生模型。这些衍生模型在参数量、训练数据集、训练方式等方面进行了不同的改进,以适应不同的应用场景。Llama的开源,为研究人员和开发人员提供了一个强大的工具,可以快速地开发出新的大语言模型。这些衍生模型的出现,进一步推动了大语言模型领域的发展,并为其在更多应用场景中的落地应用提供了新的可能性。很多声称打造出自己的大语言模型的公司,很有可能他们只是在Llama模型基础上贴牌、训练和微调。

40 LLamaIndex: 是一种专门为大型语言模型(LLMs)设计的索引方法。它通过高效地搜索大量文本并根据用户的查询识别相关段落,提高了LLMs的检索能力。类比地说,可以将LLamaIndex看作是一种图书馆索引,就像在图书馆中查找书籍一样。LLamaIndex可以帮助我们快速找到与我们查询相关的段落,从而更好地理解和利用大量的文本数据。

41 Langchain: 是一种将不同语言模型与互补能力链接在一起的框架。这使得可以创建更复杂和多功能的语言处理系统,可以处理需要不同技能和知识的各种任务。类比地说,可以将Langchain看作是一种组合不同技能的团队,就像在一个项目中需要不同的专业人员一样。Langchain可以帮助我们更好地利用不同语言模型的优势,从而提高语言处理系统的性能和适用性。

42 LLMOps: 大型语言模型运维。是用于描述开发、部署和管理大型语言模型的实践和工具的术语。这包括模型训练、推理、监控和治理等任务。随着LLMs变得越来越复杂,并在更多的任务关键型应用中使用,LLMOps成为越来越重要的关注领域。LLMOps可以帮助我们更好地管理和利用大型语言模型,从而提高其性能和适用性。

43 LoRA: 低秩适配器。是一种将大型语言模型(LLMs)适配于特定下游任务的技术,只需要进行最少的微调。它的工作原理是在特定任务数据上训练一个小的适配器模块,然后将其插入预训练好的LLM中。这种方法可以显著减少微调所需的训练数据和计算资源,同时仍然实现良好的性能。可以将LoRA看作是一种对于成品LLM的“插件”,它可以保持原模型的整体稳定性,但是可以通过局部的微调来适应特定的下游任务。这种方法可以显著减少微调所需的训练数据和计算资源,同时仍然实现良好的性能,从而省钱省时间。

M

44 Mixture of Experts: 混合专家模式。是一种机器学习集成方法,它将多个专业子模型的预测组合起来,以提高整体性能。每个子模型都是针对问题的特定方面进行训练的,它们的预测被聚合以产生最终的预测。类比地说,可以将Mixture of Experts看作是一种团队合作的方式,就像在一个项目中需要不同的专业人员一样。每个专业人员都有自己的专业领域,他们的知识和技能被整合在一起,以完成一个复杂的任务。

45 Multimodal AI: 多模态AI。包括早期的ChatGPT在内的很多大语言模型,主要基于文字输入进行理解与生成,作出文字应答输出。具备多模态能力的模型,其输入输出手段不再限于文字,能理解文字、语音、图像和视频的输入数据,并以同样丰富的手段作输出,更加接近于人类的听、说、看的感官能力,从而具备与真实世界更加直接的交互能力。

N

46 NeRF: 神经辐射场。一种从2D图像创建3D场景的新颖方法。NeRF模型将3D场景表示为连续函数,可以预测穿过空间每个点的光线的颜色和密度。这使它们可以从任何视点生成照片逼真的图像,即使该视角不包括在原始训练数据中。比如,如果2D图片像是一个房间的照片,那么NeRF模型就像是根据这些照片推断并重建这个3D房间的结构和细节,不仅能生成原始拍摄角度的图像,还能生成房间中没有照片的任何新角度、新区域的图片,让重新构建的3D房间更真实完整。这类似于警察根据目击者提供的证词,进行头脑中对犯罪现场的想象和还原。

47 Neural Network:神经网络。是一种机器学习模型,它模拟了人类大脑的结构和功能。它由大量的人工神经元组成,每个神经元都与其他神经元连接。神经网络可以通过学习数据来进行预测、分类和其他任务。神经网络就像一个大脑,它可以学习和理解复杂的数据。神经元就像大脑中的细胞,它们相互连接,形成一个复杂的网络。神经网络可以通过学习数据来建立这些连接,从而提高其预测和分类的准确性。

O

48 Objective Function: 目标函数。在训练机器学习模型的过程中被最大化或最小化的函数。目标函数的选择确定了模型试图学习什么以及它如何衡量自己的成功。目标函数就像一个老师对学生的要求。老师要求学生达到什么样的标准,学生就要努力学习,达到老师的要求。目标函数的选择就像老师对学生的要求一样,决定了模型要学习什么,以及如何衡量其成功。假设我们要训练一个模型来识别猫和狗。我们可以使用以下目标函数:

  • 最小化预测误差:回归任务,这个目标函数会鼓励模型尽可能准确地识别猫和狗。
  • 最大化数据的似然度:分类任务,这个目标函数会鼓励模型学习到数据中猫和狗之间的分布规律。

这两个目标函数都会导致模型学习到不同的知识。使用最小化预测误差的目标函数,模型会学习到猫和狗的典型特征,例如猫的毛发是短而光滑的,而狗的毛发是长而蓬松的。使用最大化数据的似然度目标函数,模型会学习到猫和狗在数据中的分布规律,例如猫在数据集中的比例是狗的两倍。

还有一个例子是,我们要训练一个模型来预测未来的股票价格。目标函数可以是最大化数据的似然性。这意味着模型应该生成的预测与实际的股票价格越接近越好。

49 Overfitting: 过拟合。在机器学习中,一个常见的问题。它指的是模型在训练集上表现很好,但是在未见过的新数据上表现很差。原因通常是模型过于复杂,学习了训练集中的噪声和不重要特征,而没有抓住本质特征。假设你在教一个小孩识别苹果。你给他看了很多红彤彤、圆滚滚的苹果,并告诉他这就是苹果。小孩学得很认真,记住了这些苹果的所有细节,比如红色、圆形、光滑的表面等等。这时,你拿出一个绿色的苹果来考考他。小孩却摇摇头说:“这不是苹果,因为它不是红色的。”

这就是“过拟合”的现象。小孩只记住了训练集(你给他看的那些红苹果)的所有细节,而没有学会苹果的本质特征(果实、有果核等)。他对训练集的表现很好,但是无法泛化到新的数据(绿苹果)上。

50 One-Shot Learning: 一次学习。是一种机器学习方法,允许模型只通过一个类别中的一个示例中即可以学习。​人类就具备这种能力 - 在日常生活中我们通常第一次见到某个人就可以记住他的名字和长相特征一样,我们第一次看到一个新的物体,就可以记住这个物体的形状和颜色。

P

51 Parameter:参数大语言模型中的参数是模型学习和理解语言的能力的基础。参数的数量越多,模型就越能学习到语言的细微差别。参数可以理解为模型的“记忆”。模型通过学习大量的文本数据,将这些数据中的规律和模式编码到参数中。

假设我们有一个大语言模型,它可以生成文本。这个模型的参数控制着它如何选择单词和句子。如果参数数量较少,那么模型就只能生成简单的文本。如果参数数量较多,那么模型就能够生成更复杂、更有创意的文本。

例如,如果参数数量较少,那么模型可能只能生成以下文本:

今天天气很好。

如果参数数量较多,那么模型可能能够生成以下文本:

今天天气晴朗,阳光明媚。天空一碧如洗,白云朵朵,好似棉花糖。微风徐徐,吹拂着人们的脸庞,让人感到十分舒适。

52 PEFT(Parameter Efficient Fine-Tuning):是一种机器学习方法,通过只微调模型中一部分参数来提高效率。它可以帮助模型在特定任务上实现更好的性能,同时减少训练时间和计算资源的消耗。它就像一个老师在辅导学生时,只针对学生的弱项进行辅导一样。

假设我们要训练一个模型来识别猫和狗。我们可以使用 PEFT 的方法来提高模型的性能。首先,我们可以使用一个大型语言模型作为初始模型。这个初始模型已经在大量数据上进行了训练,并具有良好的泛化能力。然后,我们可以使用一个小型数据集来微调模型。这个小型数据集可以包含一些猫和狗的图像或视频。

在微调过程中,我们只会微调模型中与识别猫和狗相关的参数。这可以帮助模型在识别猫和狗的任务上实现更好的性能,同时减少训练时间和计算资源的消耗。

其他的类比:PEFT 就像一个医生在治疗病人时,只针对病人的病灶进行治疗一样。医生会先诊断病人的病情,然后制定针对性的治疗方案;或者像一个工人修理机器时,只针对机器的故障部位进行修理一样,会先检查机器的故障原因,然后制定针对性的修理方案。

53 PEFT(Prompt Engineering Fine-Tuning): 是一种增强大型语言模型性能的方法,侧重于通过精心设计的提示来引导模型输出更高质量的结果。提示工程涉及仔细编写给模型的指示和示例,而微调涉及在针对特定任务定制的少量数据集上重新训练模型。这就像一个老师在辅导学生一样。老师会给学生提供明确的指示和示例,帮助学生理解概念并解决问题。老师也会给学生提供额外的练习,帮助学生巩固所学知识。

假设我们要训练一个模型来生成诗歌。我们可以使用 PEFT 的方法来提高模型的性能。首先,我们可以使用提示工程来给模型提供明确的指示和示例。例如,我们可以告诉模型,“写一首关于爱情的诗”,并给模型提供一些关于爱情的示例诗歌。然后,我们可以使用微调来在针对生成诗歌的少量数据集上重新训练模型。这些数据集可以包含各种类型的诗歌,例如爱情诗、抒情诗、叙事诗等。

54 Pre-training: AI模型的幼儿园阶段,在这里它们学习基本技能,如模式识别和从数据中提取特征。这好比学童在开始写文章前,先掌握一个词汇表。

55 Prompt: 提示。是启动 AI 模型任务的问题、谜语或指示。它为模型应该生成或预测的内容设置方向和上下文,就像向作家指定文章命题和文章类型一样。假设我们要训练一个模型来生成诗歌。我们可以使用 Prompt 来给模型提供指示。例如,我们可以告诉模型,“写一首关于爱情的诗”,或者“写一首关于自然的诗”。模型会根据我们的指示生成诗歌。如果我们的指示很明确,那么模型生成的诗歌就更有可能符合我们的要求。

56 ProGAN: 渐进增长的生成式对抗网络。它使用分步方法在生成式对抗网络中逐步完善输出。我们可以将 ProGAN 类比为一个画家。画家在创作一幅画时,通常会先画出一个粗略的草图,然后再逐渐添加细节,直到完成。ProGAN 的工作原理类似,它首先使用一个生成器生成一个粗略的图像,然后使用一个判别器来评估图像的质量。如果图像质量不够好,生成器就会对图像进行修改,然后再次提交给判别器进行评估。这个过程会不断重复,直到生成器生成出满足判别器要求的图像。


概念索引:A-IL-PQ-Z

可私有化的小程序生态管理系统 - FinClip

立即了解