AI资讯

Manus:AI版的hao123

关于Manus的争议,目前科技圈和普通用户的态度可以说两极分化。 先说说国内为啥这么火? 一夜间全网刷屏的“惊艳全球”“国运级成就”这种口号,看着像不像当年某...

Anthropic分享:使用MCP构建Agent

由于 Agent 的火爆,Anthropic 提出的 MCP (Model Context Protocol,模型上下文协议) 也跟着火爆起来,关于 MCP 的资料很多,这一篇是 MCP servers 的作者 M...

腾讯混元自研深度思考模型「T1」正式发布

今天,我们正式推出自研深度思考模型混元T1正式版。「T1」吐字快、能秒回,还擅长超长文处理,是腾讯自研的强推理模型。通过大规模强化学习,并结合数学、逻...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...

DeepSeek干掉OpenAI,还要多久?

最近,K哥参加了好几场AI领域的行业大会,发现不少人普遍存在一种“轻舟已过万重山”的乐观情绪。我很明白,这种氛围很大程度上是因为国产大模型DeepSeek的卓越...

刚刚!腾讯正式推出混元-T1:业界首个Transformer-Mamba 推理大模型

  刚刚腾讯正式推出了推理模型 混元-T1 !它基于3月初发布的业界首个超大规模 Hybrid-Transformer-Mamba MoE 大模型 TurboS 快思考基座打造! 简单来说,基于...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...

腾讯逆袭!发布混元T1正式版,实战不输DeepSeek-R1,便宜3/4

腾讯思考模型来了,摒弃纯Transformer架构。作者 |  程茜编辑 |  漠影智东西3月22日报道,昨夜,腾讯正式将混元大模型系列的深度思考模型升级为混元-T1正式版...

360周鸿袆最新演讲:DeepSeek大模型在政企落地8步走

红衣大叔前几天做了一个讲座,内容在他视频平台上发布了出来。人机共生时代做了文字整理,分享给大家。很接地气、很实用! 1. 普及:确保组织内人人能用AI,...

🧠 解码大语言模型的记忆力:上下文长度的前世今生

在与ChatGPT、Claude等大语言模型对话时,你是否好奇:它们是如何记住我们之前的对话内容的?为什么有时它们能记住很长的对话,有时却会"失忆"?今...
1 380 381 382 383 384 519