前沿科技
MemAgent:当LLM学会记笔记,350万字超长文本处理难题迎刃而解
今天,我们要聊一个让所有大模型开发者都头疼的问题——长上下文(Long-Context)处理。想象一下,让AI阅读一本几十万字的小说并回答一个横跨多个章节的细节问题...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
大模型落地及Agent记忆的有趣观点:兼看SVG生成用多模态大模型怎么做?
今天是2025年4月11日,星期五,北京,天气晴,预报晚上有大风。 本文来看两个问题。 第一个问题,关于大模型落地以及Agent记忆的有趣观点,是一些大道理的总...
当微信支付开放MCP之后,我却有一点后怕。
前两天,微信开放了自己的微信支付MCP。补上了智能体链路的最后一块拼图。虽然现在还只能在腾讯自己家的腾讯元器上用,但,影响也还是足够的大。很多人可能不...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
几个故事,理解AI Agent规划的不同实现方式
在o1将多步推理能力内化到模型之前,Agent规划的实现,依赖开发者在外部搭建的工作流。根据工作流的构建方式,可以分为“硬”和“软”两种。 [1] 硬工作流: 系统...
基于AI(LLM)和Playwright MCP(模型上下文协议)的测试自动化
编译整理|TesterHome社区 作者|Kailash Pathak以下为作者观点:在快节奏的软件开发领域,大规模交付高质量应用始终是一项挑战。传统测试自动化虽然功能强大...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...