返回
新闻中心detailTitleIcon新闻详情

“通用问答+复杂推理”双双开源,TeleAI 发布 TeleChat2.5 及 T1 正式版

2025-05-14 17:11

综合能力大幅提升,复杂推理持续强化!


近日,中国电信人工智能研究院(TeleAI)正式推出全新升级的星辰语义大模型 TeleChat2.5 版本,并发布复杂推理大模型 T1 正式版,且双双开源。


TeleChat2.5 综合能力表现优异,在 AlignBench 和 MATH-500 评测基准中评分均超过 OpenAI GPT-4o。基于 TeleAI 独特的数据处理和训练方法,TeleChat2.5 的数学和工具调用


能力出色,整体效果较上一代版本提升显著,其中数学推理提升超过 15%。


newsPicUrl

复杂推理大模型 T1 是 TeleAI 继今年1月的 preview 版之后推出的正式版本,综合能力超过 OpenAI o1-mini 及 DeepSeek-R1 蒸馏版,并在工具调用和数学推理两个维度表现出色。在 BFCL 和 MATH-500 两项专业评测基准中,T1 的工具调用评分超过 DeepSeek-R1 蒸馏版,数学推理评分与之持平。

newsPicUrl

星辰大模型系列由中国电信集团 CTO、首席科学家、中国电信人工智能研究院(TeleAI)院长李学龙教授带领团队原创打造并不断迭代突破。本次发布的 TeleChat2.5 和 T1 分别开源 35B 和 115B 参数模型,以适配不同场景的应用需求。


TeleChat2.5 全新升级

多重优化策略保障性能大幅提升


TeleChat2.5 由 TeleAI 原创打造,基于全国产化万卡集群和国产深度学习框架训练,是继星辰语义大模型 TeleChat 和 TeleChat2 后的新一代版本。TeleAI 在数据处理、基础模型训练、模型后训练阶段采用了多重优化策略和训练方法


为了提高训练的数据量和数据质量,团队针对大量理科学科和代码进行了数据合成。同时,在合成过程中,以基于知识点或知识片段合成教育知识为主,从而减少错误信息。


在基础模型训练阶段,采用多阶段课程学习方式,增加了理科和代码类密集知识数据占比,并持续训练,渐进式提升数据的质量和难度。


到基础模型训练后期,为了均衡模型的各维度能力,通过取样多个不同训练阶段效果较好的模型进行模型参数加权融合。


在模型的后训练过程中,TeleAI 团队还采用了多阶段的模型优化策略。


第一阶段,将复杂推理与通用问答优点融合,拆分效果偏弱的任务项(如较难语言理解任务、数理逻辑任务等),重新合成融合了解答思路的通用答案,使用优化后的数据进行微调训练。


第二阶段,由于针对数理逻辑任务及代码任务融合了解题思路,利用基于规则的奖励来增强模型的复杂任务理解能力,效果提升明显。


第三阶段,针对包含安全、指令遵循、工具调用、数学、代码等十余种任务类型,进一步强化模型的通用能力。


 T1 正式版发布

数学持续进阶,综合表现对标顶流


复杂推理大模型 T1 使用了强化学习训练方法,通过引入探索、反思等思考方式,大幅提升了模型在逻辑推理、数学推导等方面的准确性


在一道 2024 年全国考研数学真题中,T1 准确识别了概率论的考点,并遵循条件概率的解题思路,不断进行题干条件与解题步骤的比对,经过逻辑严谨的公式推导后,得出正确答案。

newsPicUrl
newsPicUrl
newsPicUrl
newsPicUrl

不难看出,T1 在解题过程中将完整思维链条展示无余,既保障了模型逻辑思维的透明可解释,也为使用者提供解题思路的引导和启发。


在一阶非线性微分方程的考题中,T1 也同样对题目难点进行了精准剖析。面对变量替换、分离变量、积分公式,乃至对隐式解结构的理解等多个典型微分方程考点,T1 都能见招拆招,应对自如。

newsPicUrl
newsPicUrl
newsPicUrl
newsPicUrl
newsPicUrl

而在逻辑推理方面,即使找一些刁钻的文字游戏或者脑筋急转弯来为难它,T1 也能秒懂背后的“土味”深意,轻松破解。


newsPicUrl
newsPicUrl

为了更全面地提升复杂推理模型的综合效果,TeleAI 在后训练阶段,采用了课程学习贯穿全流程的方式。在微调阶段,将多任务数据集进行难度划分(根据模型推理正误比率判断),首先使用中低难度冷启动微调,然后通过 RFT 方式筛选中高难度数据持续微调,进一步提升模型能力。到了强化学习阶段,TeleAI 首先针对数理逻辑、代码能力采用难度渐进式课程学习方案进行能力强化。随后,基于多种混合通用任务进行持续强化,全面提升模型效果。


星辰语义大模型自开源后备受业界关注,其中 TeleChat2-115B 在华为昇思大模型平台下载超 37 万次,是全平台下载次数最高的大模型;TeleChat2-3B 在 HuggingFace 开源社区下载逐月增加,已累计近 2 万次。


作为央企科研机构,TeleAI 持续深耕原创技术的研发和落地,目前已打造全模态、全尺寸、全国产的“三全”星辰大模型体系。此次 TeleChat2.5 和 T1 的发布和开源,进一步推动了国内自研大模型技术的迭代和进步。

与此同时,TeleAI 还通过对家族式同源模型协同的深入研究,进一步探索智传网(AI Flow)的创新和应用,并与 AI 治理、智能光电(包含具身智能)、智能体形成“一治+三智”完整科研布局


newsPicUrl

坚持以科技创新为动力,以技术普惠为己任,TeleAI 目标通过开源与广大开发者共同探索更多大模型与产业结合的创新路径,打通并发展“AI 驱动的三大空间经济”,全面赋能赛博空间、临地空间、广域空间,不断拓展人类的认知和活动边界。


开源地址:

GitHub:

https://github.com/Tele-AI/TeleChat2.5

https://github.com/Tele-AI/T1

Gitee:

https://gitee.com/Tele-AI/TeleChat2.5

https://gitee.com/Tele-AI/T1

ModelScope:

https://modelscope.cn/collections/TeleChat25-687e807c39354d

https://modelscope.cn/collections/T1-5707043a0cd44a

HuggingFace:

https://huggingface.co/Tele-AI

Modelers:

https://modelers.cn/models/MindSpore-Lab/TeleChat2.5-35B

https://modelers.cn/models/MindSpore-Lab/TeleChat2.5-115B

https://modelers.cn/models/MindSpore-Lab/T1-35B

https://modelers.cn/models/MindSpore-Lab/T1-115B