街坊秀 街坊秀

当前位置: 首页 » 街坊资讯 »

腾讯混元自研的快思考模型 Turbo S能实现秒回

转自:南京晨报

晨报讯(南京晨报/爱南京记者 杨静)腾讯混元Turbo S模型在腾讯云官网上架后获得广泛关注。区别于Deepseek R1、混元T1等需要“想一下再回复”的慢思考模型,腾讯混元自研的快思考模型混元Turbo S能够实现“秒回”,吐字速度提升一倍,首字时延降低44%,同时在知识、数理、创作等方面也有突出表现。

有研究表明,人类90%—95%的日常决策依赖直觉,快思考正如人的“直觉”,为大模型提供了通用场景下的快速响应能力,而慢思考更像理性思维,通过分析逻辑提供解决问题思路。快思考和慢思考的结合和补充,可以让大模型更智能、更高效地解决问题。

在业界通用的多个公开Benchmark上,腾讯混元Turbo S在知识、数学、推理等多个领域展现出对标DeepSeek V3、GPT 4o、Claude3.5等业界领先模型的效果表现。

据介绍,通过长短思维链融合,腾讯混元Turbo S在保持文科类问题快思考体验的同时,基于自研混元T1慢思考模型合成的长思维链数据,显著改进了理科推理能力,实现模型整体效果提升。

架构方面,通过创新性地采用了Hybrid-Mamba-Transformer 融合模式,混元Turbo S有效降低了传统Transformer结构的计算复杂度,减少了KV-Cache缓存占用,实现训练和推理成本的下降。新的融合模式突破了传统纯Transformer结构大模型面临的长文训练和推理成本高的难题,一方面发挥了Mamba高效处理长序列的能力,也保留Transformer擅于捕捉复杂上下文的优势,构建了显存与计算效率双优的混合架构,这是工业界首次成功将Mamba架构无损地应用在超大型MoE模型上。

未经允许不得转载: 街坊秀 » 腾讯混元自研的快思考模型 Turbo S能实现秒回