AI科普|理解那些看似高级的AI概念和热词(下)

AI资讯 19小时前 charles
65 0

Hi~

本文是AI概念和热词科普文章的下篇。在之前的上篇中,我们对一些大而全的概念进行了梳理和分享,在下篇中我们将主要聚焦按照AI产品的逻辑层次,通俗去理解和串联AI的一些概念和名词。


如果你还没有阅读过上篇,请先通过以下链接阅读上篇 ⬇️:
Alice,公众号:WonderLearnerAI科普|理解那些看似高级的AI概念和热词(上)

(三)

从理解AI产品的背后逻辑出发,去理解的一些概念

DeepSeek、豆包、通义千问、ChatGPT这些聊天机器人是目前大众直接接触和使用的最多的一类AI产品,那么要实现这样的一些智能问答应用,需要经过什么样的过程?我们从这个问题出发,顺便去理解一些基本概念。

AI类产品自底向上一般可以分为四层:

    • 基础层主要涉及数据、算法和算力,为模型提供最基础的底层支撑。在这一层我们会涉及到数据、算法、GPU和芯片相关的内容。

    • 模型层是AI产品的“大脑”,主要涉及基础模型、领域模型、多模态等概念,会讲到各类模型的概念。

    • 应用层负责将AI技术转化为实际的用户应用,我们会涉及提示词、Agent、RAG等概念。

    • 用户层是AI产品的用户交互形态,比如目前比较常见的聊天对话,这里我们会涉及分析现有AI产品的交互界面形态、主流协同模式(agent、copilot、embedding)、服务模式等。

1. 基础层:数据、算法、算力为模型提供底层支撑

数据是训练模型中的关键,负责为训练模型提供优质的“原料”。

训练模型需要海量数据,从数据格式上看,既包括结构化数据,如文本,也包括非结构化数据,如图片、视频、语音等。从数据来源上看,既包括公开的数据集或通过网络爬虫收集的数据,也包括来自非公开渠道的私有数据。

数据的规模和质量对模型的好坏起到至关重要的作用。想象你在教一个小朋友认动物:

  • 如果只给看10张模糊的猫咪照片(数据量少+质量差)→ 他可能以为所有毛茸茸的动物都是猫,甚至把狗认错。
  • 如果给看1万张清晰的猫狗照片(数据量大+质量高)→ 他就能准确区分猫和狗,甚至认出不同品种。

AI模型也一样,数据规模和质量直接决定它的"聪明程度"。目前大模型的数据来源以公开的数据集或通过网络爬虫收集的数据为主,针对企业专业智能应用,还会使用企业私有数据,如企业自身的业务数据,如销售记录、用户评价等,通过加入专业的私有数据能够提高AI应用的效果,尤其是应用于特定领域或特定任务的效果。此外,需要通过数据清洗和数据标注来确保数据质量,包括处理数据中的噪声、错误和缺失值,以及进行数据的标准化和归一化等操作,为AI模型学习使用提供基础。

算法驱动模型从数据中学习,决定模型如何学习

算法是一组明确的、可执行的步骤,用于解决特定问题或完成特定任务(如排序、搜索、数学计算等)。算法并不是AI中独有的概念,传统上我们也有算法的概念。AI领域中所说的算法,指的是AI所有技术的基础,指导模型如何从数据中学习。例如梯度下降、反向传播等。

模型的训练和模型的好坏需要依赖算法。在上面的深度学习概念中我们提到了,深度学习是基于神经网络的一种从数据中提取特征方式。反向传播就是用于训练神经网络的一种算法,通过计算损失函数的梯度,从输出层反向逐层调整网络参数。卷积神经网络(CNN)的卷积核参数通过反向传播算法更新。神经网络由大量参数(权重和偏置)组成,训练目标是找到一组参数,使模型输出尽可能接近真实值。反向传播通过计算损失函数对每个参数的梯度,指导参数更新方向,没有反向传播,训练复杂神经网络几乎不可行。(之前的AI发展史文章中我们也提到了,反向传播的提出使得神经网络得以发展。当时福岛邦彦提出的“多层感知机”也就是卷积神经网络的雏形因为没有合适的算法而不能有效学习,从而进展停滞。几年后,反向传播出现,解决了神经网络训练中“如何高效、自动地调整海量参数以最小化预测误差”的核心问题。)Transformer的注意力权重则通过梯度下降算法优化。

算力是AI模型训练和推理的“动力引擎”,决定了模型训练速度和推理效率。

算力指系统执行浮点运算(FLOPS,也是算力的常用单位)的能力,是衡量硬件处理复杂计算任务的核心指标。训练深度神经网络(如GPT-4)需要极高的算力支持(如千亿次浮点运算),算力直接决定模型训练速度和推理延迟(如实时图像识别)。在AI发展史那篇文章里也提到过,算力和大数据的发展为深度学习快速发展起到了非常重要的作用。

芯片是算力的物理基础,是计算能力的来源,其设计与制造水平直接决定了硬件设备的计算能力。在AI领域,CPU(中央处理器)与GPU(图形处理器)是最核心的两类芯片。CPU擅长处理复杂逻辑和串行任务(如数据调度、资源管理),但在大规模并行计算中效率较低。在AI中主要用于数据预处理、任务调度、小规模模型推理。GPU凭借数千个计算核心(如NVIDIA的CUDA核心)和超高内存带宽,成为深度学习训练的核心硬件。训练GPT-4需依赖数万块GPU的并行计算能力。

显卡是GPU芯片的物理封装形态,包含显存、散热器、电源接口等支持组件,将这些内容封装到一起,使其可集成到计算机系统中。大家常听到AI中用到的A100、H100的卡,都是GPU卡,是英伟达公司的产品

算力是AI竞争的战略资源,因为在很大程度上算力决定AI天花板。GPU是AI算力的核心硬件,芯片技术决定算力上限。由黄仁勋创始的美国英伟达(NVIDIA)公司凭借CUDA生态(开发工具链、cuDNN加速库)和硬件架构优势,长期垄断全球AI芯片市场,占据90%以上的数据中心GPU份额。2022年以来,美国通过出口管制(如限制A100/H100对华销售)试图遏制中国AI发展。这一封锁对中国的影响体现在:中国企业难以获取先进制程(如4nm)的GPU,大模型训练被迫使用降级芯片(如A800),国产GPU(如华为昇腾、壁仞科技)目前还难以替,黑市A100价格翻倍,中小企业的算力成本大幅增加。尽管如此,我国的深度求索(DeepSeek)依然通过算法与工程创新,最大化现有算力利用率,在效率提升与成本控制中突围。(感兴趣的伙伴可以去听一档“半拿铁”播客节目,有一期讲了DeepSeek,其实Deepseek在早期是囤了很多卡的)

2.模型层:AI产品的“大脑”

模型层是AI产品的核心,相当于AI产品的“大脑”,负责将原始数据转化为可执行任务的智能,并确保算法适应特定任务并具备良好的数据平衡性。没有这一层就谈不上AI。这里我们先了解一些模型的概念。

模型是算法在数据上训练后的结果,也就是从数据中学习到的数学表示或规则系统,例如,训练好的神经网络模型能根据用户问题生成回答。类似于人类通过经验总结出的“规律”。比如我们高中数学里会出现的找规律的题,给你一串数字[0,1,3,6,10,X],然后让你回答X=?我们从这串数字中理解到了一种规律,也就是数字之间的差值总是比上一个差值多1,然后我们就知道下一位应该是X=15.我们学习到的“数字之间的差值总是比上一个差值多1”的这个规律就是一个模型。当然这些模型充其量只是“小模型”。大模型是指使用大规模数据和强大计算能力训练出来的具有大量参数的深度学习模型。“大”的特征就主要体现在“训练数据大”、“架构规模大”、“参数规模大”、“算力需求大”。大模型涵盖语言、视觉、多模态、科学计算等多种方向。大语言模型(LLM,Large Language Mode)是大模型的一个子集,是指在自然语言处理(Natural Language Processing,NLP)领域中的一类大模型,通常用于处理文本数据和理解自然语言。(有文章将大模型作为大语言模型的缩写,这两个概念反正网络上解释不太一样,也不用特别扣细节,其实只要知道大模型不仅面向自然语言,还有计算机视觉、多模态就行了)

AI科普|理解那些看似高级的AI概念和热词(下)
 (图中展示了主流大语言模型的发展历程,本图来自参考文献中的文章[1])

在之前的文章中,我们提到了深度学习的模型从架构上看,主要包括CNN、RNN、Transformer。目前,Transformer架构是绝对主流,市面上的大模型基本上都采用Transformer架构。下面我们从模型的应用场景上看,可以分为:

基础模型基于超大规模数据预训练的通用模型,具备广泛任务适应能力。相当于AI完成了“通识教育“。目前主流的基础大模型包括: OpenAI 的 GPT-4 、Qwen2.5-Omni 、DeepSeek-R1 和 Meta 的 LLaMA等。

领域垂直模型基础模型上针对特定领域(医疗、金融、法律等)微调的专用模型。主要的技术路线是在基础模型上微调(使用领域数据继续训练),如使用医疗文献微调GPT(基础模型) ,进而得到一个医学问答模型(领域专用模型)。

简单总结:基础模型是“水电煤”,提供通用能力,降低AI开发边际成本;垂直模型创造商业价值,解决产业或特定领域的痛点(如医疗、金融、教育)。

按照输入数据类型的不同,大模型主要可以分为以下三大类:

语言大模型指在自然语言处理领域中的一类大模型,通常用于处理文本数据和理解自然语言。这类大模型的主要特点是它们在大规模语料库上进行了训练,以学习自然语言的各种语法、语义和语境规则。例如:DeepSeek-R1、GPT系列(OpenAI)、Bard(Google)、文心一言(百度)。语言大模型的常见使用场景如DeepSeek等文本对话聊天、文本写作等。 

视觉大模型指在计算机视觉领域中使用的大模型,通常用于图像处理和分析。这类模型通过在大规模图像数据上进行训练,可以实现各种视觉任务,如图像分类、目标检测、图像分割、姿态估计、人脸识别等。例如:VIT系列(Google)、文心UFO、华为盘古CV。视觉大模型的常见使用场景包括图片中的文字识别等。

多模态大模型是能够处理多种“模态”类型输入的大语言模型,其中每个“模态”指的是特定类型的数据,例如:文本、声音、图像、视频等,处理结果以文本类型输出。这类模型结合了NLP和CV的能力,以实现对多模态信息的综合理解和分析,从而能够更全面地理解和处理复杂的数据。如:DALL-E(OpenAI)。多模态模型的常见使用场景如ChatGPT的语音对话聊天,汽车自动驾驶(融合摄像头和雷达数据)。

大模型以其强大的语言理解与生成能力,成为了 AI 领域的中流砥柱,广泛应用于内容创作、智能翻译等多个场景,为人们的生活和工作带来了极大便利。然而,大模型的部署和维护也需要专业的技术团队和大量的资源投入,增加了应用的难度和成本。这些问题严重制约了大模型的广泛应用和发展。比如在DeepSeek开源的使用上,就可以窥见。自DeepSeek开源发布以来,各家大中小AI服务商也相继宣布接入DeepSeek-R1模型,并开放使用。(如腾讯的ima产品就接入了,可以使用DeepSeek R1或V3)

AI科普|理解那些看似高级的AI概念和热词(下)
 (图片展示了腾讯的产品ima中接入deepseek功能)

DeepSeek-R1系列一共开源了8个版本,囊括了从1.5B到671B合计7种参数量模型。那么这么多宣称接入的,大家接入的到底是什么?真的接入的是DeepSeek-R1吗?考虑到个人电脑的配置上限,以及部分网站的服务器性能,基本绝大部分市面上的部署教程以及各家中小AI服务商提供的都是70B以下的模型。实际除了671B版本外,其他DeepSeek-R1版本均为“蒸馏”模型,分别基于阿里的Qwen 2.5和META的Llama3.3蒸馏而来。虽然不能完全说这个R1是“假的”(毕竟DeepSeek也认为这些就是R1),但和网页版的R1比较起来,实在是风马牛不相及,完全不是一回事。

AI科普|理解那些看似高级的AI概念和热词(下)
DeepSeek-R1系列开源版本)

模型蒸馏是知识迁移(Knowledge Transfer)领域的一项核心技术,就像让一个大学教授(教师模型)打算把毕生所学教给本科生(学生模型),虽然教授知道10000个知识点,但考虑到本科生自身的能力(参数量和架构),只能挑最重要的200个教给本科生。虽然本科生用心学习并掌握了教授指导的核心知识,但基于自身限制,在面对需要综合运用多个冷门知识的复杂问题时,就会显得力不从心。蒸馏其实主要是针对部署场景进行压缩和加速的模型版本,侧重效率而非通用性。比如你认为使用DeepSeek网页版本总是遇到服务器无响应的问题,想自己部署一个,考虑到个人电脑的配置上限,我们更适合部署一个蒸馏版本。虽然蒸馏版本效果不如”真正的R1“,但是在一些场景下也够用。

那么DeepSeek-R1模型到底好在哪?为什么说它可以和GPT 4系列去打?关于模型的好坏测评,目前是有一些公认的方法和标准的。现在AI 大模型的发布,总是伴随着一连串“跑分”和“登顶”的新闻。换句话说,这就是目前科技圈的常态。经过预训练获得的模型。它们通常具备丰富的世界知识与通用的语言能力,是后续研发各类大语言模型及其应用的基础。在评测这类模型时,主要关注其基础能力。典型的能力包括复杂推理、知识使用等。由于这些基础能力可以通过明确定义的任务来进行有效评测,因此基于评测基准的方法已经成为了评估基础大语言模型性能的主要手段。如果想详细了解,可以阅读文末参考文献中的文章[2]。

3.应用层:将基础模型转化为产品功能

对于一个AI产品来说,模型层就是要选择适合使用场景的大模型,应用层则负责将AI技术转化为实际的用户应用,也就是如何来利用这个大模型。这里涉及到我们的目标场景、部署方式和智能体构建。目前,做大模型的厂商一般都会基于自己的大模型推出聊天对话AI服务,比如大家常用的豆包、DeepSeek手机软件或网页版等。我们使用DeepSeek手机软件时,其实背后的模型部署在DeepSeek服务器上,手机软件在我们手机上。

如果有了一个基础模型,然后想打造一个聊天对话助手,应用层中需要做的就是将基础模型转化为安全、可控、符合产品定位的对话AI。比如像DeepSeek聊天助手的应用场景是需要回答我们普通用户的各类通用性问题并完成一些通用的任务。那么这里就需要了解到几项技术。

提示词工程(Prompt Engineering)是通过设计和优化输入指令(即“提示词”),引导大型语言模型生成更符合预期输出的技术。其核心目标是弥合人类意图与模型理解之间的鸿沟。以下列出了一些提示词的使用场景效果示例:

场景1:定义产品角色与风格。原始模型问题:GPT-4默认生成风格可能过于学术化、口语化混杂,或缺乏人格化特征。

  • 提示词工程方案:通过系统提示(System Prompt) 设定模型角色和交互规则,让模型输出风格统一,符合“助手”定位,同时约束伦理风险。
    "你是一个友好且专业的助手,回答需简洁易懂,避免使用复杂术语。若用户提问涉及敏感话题,礼貌拒绝并说明原因。" 
场景2:控制对话流程与上下文管理。原始模型问题:大模型默认仅关注当前对话轮次,可能忽略历史上下文(如忘记用户之前提到的偏好)。
  • 提示词工程方案:
    • 将历史对话摘要作为提示词的一部分输入模型。
    • 通过提示词要求模型主动追踪关键信息(如“记住用户喜欢用比喻解释概念”)。
场景3:优化复杂任务处理。原始模型问题:用户提问“写一篇关于气候变化的论文”,模型可能生成结构混乱的文本。
  • 提示词工程方案:通过prompt强制结构化输出,降低随机性,提升实用性。
    "请按以下步骤生成论文:  
    1. 列出3个核心论点;  
    2. 为每个论点提供2条数据支撑;  
    3. 用学术语言撰写结论,字数控制在200字内。"  
场景4:安全与合规性过滤。原始模型问题:GPT-4可能生成不符合伦理或法律的内容(如暴力、歧视性言论)。
  • 提示词工程方案:
    • 前置约束:在系统提示中明确禁止内容(如“拒绝生成任何涉及自杀指导的回答”)。
    • 后置修正:通过提示词要求模型对生成内容自检(如“生成后检查是否存在偏见,如有则重新生成”)。


以上就是提示词工程的具体作用,所以前一阵子小红书上总有人教大家写提示词来提升AI的生成结果,甚至还有官方手册。但实际上,我相信这只是AI发展阶段中的过渡临时方式,毕竟如果使用AI还需要门槛对于AI的普及应用来讲是不现实的。况且,当下的智能助手一般也不需要写这么复杂的提示词了(你是一个专业的作家,请你...怪傻的其实),或者说,对于我们普通人来讲不写这种规范的提示词也能得到比较好的回答。为什么呢?这里就要提到硬提示和软提示的概念。硬提示(Hard prompting)工程,就是把提示词当做输入项直接给到模型,输出期待的答案。软提示(Soft prompting),也叫提示词微调工程(Prompt tuning)简单来说,就是用微调模型的方法让模型学习到某种模式,模型学会之后,就不用再像硬提示那样输入很长的提示词了。

如果说提示词工程是用来影响模型的思考,那么 Agent 则在思考的基础之上增加了行动能力。

AI Agent(这里就不翻译中文了,Agent 翻译为中文叫智能体,直译过来叫“代理”)是一种能够自主感知环境、制定目标、规划行动并执行任务的智能系统。它不仅仅是生成文本的模型,更像一个具备“大脑+手脚”的虚拟助手,可以调用工具、与环境交互、动态调整策略,解决复杂问题。类比:若大模型(如GPT-4)是一本百科全书,AI Agent则像一个项目经理——它知道何时查资料(调用模型)、何时做计算(调用工具)、何时分步骤解决问题,最终整合资源完成任务。

AI科普|理解那些看似高级的AI概念和热词(下)

关于AI Agent其实有很多内容可以展开,后面单独开一篇文章来学习分享吧,这部分其实真的很有意思。目前有许多可以搭建AI Agent 工作流的平台,可以让用户自己搭建一个AI助手。像字节的“扣子”,可以利用豆包模型和丰富的api和ai项目案例,让用户能够发挥自己的创意来搭建一个专用任务或垂直领域的AI应用,并且分享上线,供大家使用。感兴趣的朋友可以去玩玩。

AI科普|理解那些看似高级的AI概念和热词(下)

检索增强生成(Retrieval-Augmented Generation, RAG)对用户问题实时检索外部知识库(如企业文档、最新新闻),将检索结果注入模型上下文,提升答案准确性。例如,回答“2024年AI芯片趋势”时,先检索最新行业报告再生成总结。(也就是目前体现在DeepSeek中见到的联网搜索功能)

应用层中使用以上技术,就能将基础模型转化为产品的核心功能搭建起来,比如一个安全、可控、符合大众用户定位的对话AI。

4.用户层:AI产品如何与用户交互

用户层是AI产品与用户直接接触的层面,它直接影响用户的满意度和交互体验。在这一层中,需要注重用户体验的持续优化,通过不断迭代和升级来提升产品的竞争力。

产品界面和交互形态:

目前我们最常见的产品交互形态就是对话形式的AI应用,尤其界面上尤其是豆包、DeepSeek、ChatGPT这些不管是网页版还是移动版界面其实都大同小异。在其他模态的内容生成上,比如目前用于生成图片的即梦AI、用于生成产品原型设计稿的Readdy,也都是通过用户提出要求,AI提供生成后的结果,也就是一种“反复对话”的形式来完成用户和AI之间的交互。然而这种对话界面绝对不是、也不应该成为唯一的形态。下面作者整理了一些典型的AI交互界面,大家可以感受一下。

AI科普|理解那些看似高级的AI概念和热词(下)

人类用户与AI的协同模式:

生成式AI的智能革命演化至今,从人机协同呈现了三种模式:

嵌入(embedding)模式:Embedding 模式是最基础的协作模式,这个阶段有个显著特点:人类完成绝大部分工作,AI 只是在旁边打打下手。

Embedding 模式的工作流程(某个环节里去调用大模型):

  • 人类设立任务目标
  • AI 根据需求提供信息或建议
  • 人类做出判断,完成主要工作

实际应用案例:内容推荐系统:看完一篇文章后,系统能推荐真正相关的内容,不只是表面相似的;智能客服:能理解用户问题的本质,不只是关键词匹配。

副驾驶(Copilot)模式:Copilot 模式代表了人机协作的下一个层级:人类和 AI 协同工作,相互配合。被动性的 AI 助手这种形态的 AI 主要充当“副驾驶”的角色,旨在为用户提供建议和支持。它依赖于用户的明确指令来操作当前内容窗口,通常以侧边栏的形式呈现。目前,许多 Office 文档类产品都采用了这种设计。

Copilot 模式的工作流程(每个环节都可以跟大模型进行交互):

  • 人类设立任务目标
  • 人类与 AI 共同执行任务的不同部分
  • 人类进行修改调整确认
  • 人类自主结束工作

实际应用案例:GitHub Copilot:程序员写代码时,AI 实时提供代码建议,但最终如何使用这些代码由程序员决定;Microsoft 365 Copilot:你写报告,AI 帮你优化语言;你做 PPT,AI 提供内容和设计建议;设计软件的 AI 助手:你确定创意方向,AI 生成多种设计方案供你选择。

智能体(Agent)模式:Agent 模式是 2025 年最火热的 AI 应用形态,也是离 AGI 最近的一步。在这个模式下,任务交给大模型,大模型即可自行计划、分解和自动执行,这种模式下,AI充分体现了智能体的互动性、自主性和适应性特征,接近于独立的行动者,而人类则更多地扮演监督者和评估者的角色。

Agent 模式的工作流程(任务交给大模型,大模型即可自行计划、分解和自动执行):

  • 人类只需设立目标提供资源
  •  AI 自主进行任务分解
  • AI 自主选择工具和流程
  • AI 独立完成工作

实际应用案例:Auto-GPT能针对用户设定的目标,自主做出子任务的分解决策,而无需用户详细干预每一步;Claude Code:强大的 AI 编程助手,能理解复杂的代码需求,通过自然语言指令,帮助开发者自主编写和运行测试代码。Manus:作为火爆出圈的通用型 AI Agent,给它任意一个任务目标,它会自动规划步骤并执行,即便针对各种复杂任务场景,也能经过自动化任务处理直接交付结果。如报告撰写、数据分析、营销策划、旅行规划等,直接告诉它“帮我研究一个创业点子并制定商业计划”即可。

这三种模式中,决策权逐渐由人类转向AI。这一演变揭示了生成式AI与人类协作的不同层次,呈现出由人类主导到与AI共同决策,再到AI自主执行的趋势。此部分内容梳理自参考文献部分中的[3,4],大家感兴趣可以访问原文深入阅读。

大模型产品的服务形态:

各大科技公司在发布AI大模型的同时,面向c端用户和b端客户分别提供了不同的服务。面向c端用户,一般都提供平台化的智能对话服务,如,字节基于豆包大模型提供的「豆包」,百度基于文新大模型提供的「文心一言」,OpenAI基于GPT系列模型推出的「ChatGPT」。面向b端行业客户,则基于通用大模型底座为用户提供AI大模型的调用接口以及与之配套的低代码开发和模型编排等细分工具

MaaS成为继SaaSIaaSPaaS等概念之后,人工智能乃至整个科技领域的一个热门话题。模型即服务(Model as a Service,MaaS),是一种类云计算服务的新型AI商业模式,将人工智能大模型变成可服务化的产品,不需要用户具备较高的技术水平和底层设施,只需通过API接口调用即可使用,降低了使用门槛,并大幅提高了模型的使用效率。比如OpenAI推出了爆火的ChatGPT、DALL·E 2等“工具”的同时,其核心业务模式是基于通用大模型底座为用户提供API接口或定制服务。

MaaS业务模式的核心,是"模型→细分工具→应用场景"的传导路径。在这个传导路径中,科技巨头通过提供AI大模型的调用接口以及与之配套的低代码开发和模型编排等细分工具,向中小企业或行业客户收取模型接口使用费。这种模式可以真正满足行业需求的应用,降低用户使用AI大模型的成本。


本文到这里就结束啦,感谢您能阅读到此处,希望通过这篇文章能够让大家对AI产生一些新的认识和收获。

后面会针对最近比较火的AI Agent、MCP,以及在DeepSeek后短暂爆火的Mannus等,单独讲解AI Agent以及对我们普通用户的影响。同时也有一些比较好的趋势和未来观点,梳理后进行发布。

最后,欢迎大家关注!

参考文献

[1]最新「大模型简史」整理!从Transformer(2017)到DeepSeek-R1(2025).https://mp.weixin.qq.com/s/Y2LTysLiL7WPvSeLEZKokg

[2]评估篇| 大模型评测综述.https://mp.weixin.qq.com/s/Qnwy8OBotEHoU-k_HI_-uw

[3]生成式AI人机协同有哪几种模式?https://mp.weixin.qq.com/s/sKDMEsgMX-NT8qX-NqTnuQ

[4]终于把AI大模型三种模式agent、copilot、embedding弄清楚了https://mp.weixin.qq.com/s/yXr8rrc3mQiofPnTeL2BSw

版权声明:charles 发表于 2025年6月15日 am7:09。
转载请注明:AI科普|理解那些看似高级的AI概念和热词(下) | AI工具大全&导航

相关文章