“混元”正式发布了256k版本,具备处理超过38万字符的超长文本能力。强到让人震惊,据说给混元256k版本输入一本《三国演义》,字数达数十万字,那么,大模型则能识别出小说中的关键人物和事件情节,甚至对于天气、角色着装等细节描述也能提供精确的信息。已经通过经典的长文本测试,根据腾讯混元目前的大海捞针指标来看,准确率已经高达99.9%。
线上版本对比如下:
hunyuan-lite
超长上下文MOE模型
最大输入250K
最大输出6K
满足绝大部分对效果、推理性能、成本控制相对平衡的需求场景
在中文 NLP、英文 NLP、代码、数学等方向显著优于同等规模开源模型
hunyuan-pro
万亿级参数规模MOE模型
最大输入28K
最大输出4K
适用于对模型效果有高要求的场景
当前混元模型中效果最优版本,支持32K上下文
输入:0.03元/千token
输出:0.1元/千token
hunyuan-standard-256k
混合专家模型训练
最大输入250K
最大输出6K
256K超长上下文多专家模型
长文效果表现优秀,大海捞针指标达99.9%
输入:0.015元/千token
输出:0.06元/千token
hunyuan-standard
混合专家模型训练
最大输入30K
最大输出2K
32K多专家模型
在平衡效果、价格的同时,可对实现对长文本输入的处理
输入:0.0045元/千token
输出:0.005元/千token