一文搞懂智能体工作流(Agentic Workflow)

智能体(Agent)是基于大型语言模型(LLM)的执行单元,通过规划、记忆、工具与行动协同工作。智能体工作流(Agentic Workflow)则是利用多个这样的智能体协...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...

为啥大模型都在搞“思维链”?看完秒懂!

点击蓝字 关注我们今天咱来唠唠最近在 AI 大模型圈子里超火的 “思维链”(Chain-of-Thought,CoT)。这玩意儿就像给 AI 装上了 “思考的大脑”,让它解决问题时...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...

5000元主机打造270亿参数大模型+知识库+智能体开发一体机(Win10版)

大家好,我是九歌AI。 前几天写过两篇用2000元主机部署大模型的教程,虽然通义千问的QwQ32B版本和Gemma3但是只能玩玩,并没有实用价值。 今天教大家只花5000...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...

谈LLM生成文本检测攻防的未来

本文不是一个技术文,并不讨论目前LLM文本检测攻防的具体技术方案。 0、引子 最近尝试了一下维普的AIGC检测能力(也就是学校毕业论文用的那个),发现我目前...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
1 359 360 361 362 363 523