前沿科技
刚刚,Karpathy 又造新词 :"细菌式编程"诞生记,兼论上下文工程演进史
Andej Karpathy之前提出“#氛围编程”(vibe coding)大火特火,今天AK又造了一个新词“#细菌式编程” 在软件开发的世界里,我们时常陷入关于最佳实践的无尽讨论...
OpenAI:构建Agent的实用指南
本文译自OpenAI发布的Practical Guide to Building Agents(原文以PDF格式发布)。在研究Agents的过程中将之与Google、Claude等关于Agent的文章一起进行比较...
AI产品:从建筑行业实例解析AI Agent
AI Agent无疑是今年最热的词汇之一,但在实际的应用场景中,我发现这个概念已经过度泛化——每个人都在用自己的方式定义和使用它。 在最近沟通过的多个SaaS产品...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
AI Agent 凭什么火?看懂 60 年软件演进史,你就明白了
大家好,我是孟健。 前几天,一位做了很多年开发的朋友跟我说: '现在的 AI Agent 让我想起当年第一次用 Spring 框架的感觉——既兴奋又迷茫。' 我深有同感。 ...
微软AI特别报告:教育中的人工智能
2025年6月25日,微软发布了《2025 Microsoft AI in Education Report》(微软2025年教育中的人工智能特别报告);系统总结了AI技术在全球教育领域的最新应用...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
🧠 解码大语言模型的记忆力:上下文长度的前世今生
在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
用子模优化法为DeepResearch生成多样性查询
在开发DeepResearch时,生成多样化的查询 (query) 是一个关键细节。我们在开发时会在至少两处遇到这个问题。第一处是在解析用户的原始输入,并生成网页搜索查...