一文搞懂智能体工作流(Agentic Workflow)
智能体(Agent)是基于大型语言模型(LLM)的执行单元,通过规划、记忆、工具与行动协同工作。智能体工作流(Agentic Workflow)则是利用多个这样的智能体协...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
为啥大模型都在搞“思维链”?看完秒懂!
点击蓝字 关注我们今天咱来唠唠最近在 AI 大模型圈子里超火的 “思维链”(Chain-of-Thought,CoT)。这玩意儿就像给 AI 装上了 “思考的大脑”,让它解决问题时...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
5000元主机打造270亿参数大模型+知识库+智能体开发一体机(Win10版)
大家好,我是九歌AI。 前几天写过两篇用2000元主机部署大模型的教程,虽然通义千问的QwQ32B版本和Gemma3但是只能玩玩,并没有实用价值。 今天教大家只花5000...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
谈LLM生成文本检测攻防的未来
本文不是一个技术文,并不讨论目前LLM文本检测攻防的具体技术方案。 0、引子 最近尝试了一下维普的AIGC检测能力(也就是学校毕业论文用的那个),发现我目前...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...