前沿科技

MemAgent:当LLM学会记笔记,350万字超长文本处理难题迎刃而解

今天,我们要聊一个让所有大模型开发者都头疼的问题——长上下文(Long-Context)处理。想象一下,让AI阅读一本几十万字的小说并回答一个横跨多个章节的细节问题...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...

大模型落地及Agent记忆的有趣观点:兼看SVG生成用多模态大模型怎么做?

今天是2025年4月11日,星期五,北京,天气晴,预报晚上有大风。 本文来看两个问题。 第一个问题,关于大模型落地以及Agent记忆的有趣观点,是一些大道理的总...

当微信支付开放MCP之后,我却有一点后怕。

前两天,微信开放了自己的微信支付MCP。补上了智能体链路的最后一块拼图。虽然现在还只能在腾讯自己家的腾讯元器上用,但,影响也还是足够的大。很多人可能不...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...

几个故事,理解AI Agent规划的不同实现方式

在o1将多步推理能力内化到模型之前,Agent规划的实现,依赖开发者在外部搭建的工作流。根据工作流的构建方式,可以分为“硬”和“软”两种。 [1] 硬工作流: 系统...

基于AI(LLM)和Playwright MCP(模型上下文协议)的测试自动化

编译整理|TesterHome社区 作者|Kailash Pathak以下为作者观点:在快节奏的软件开发领域,大规模交付高质量应用始终是一项挑战。传统测试自动化虽然功能强大...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
1 139 140 141 142 143 596