第522章 巴别塔(4827)(1/6)
打破了语言矩阵!?谢尔盖布林打了个激灵,视线马上重新回到了屏幕上密密麻麻的曲线图上。抢过德米斯哈萨比斯手中的鼠标,谢尔盖布林不停地向下滑动着鼠标滚轮。大周语、普鲁士语、高卢语、盎语、倭语、大毛语、西拜语、葡图佳语、意呆利语、巴拉特语……超过三百张曲线对比图无一不是在说明这样一个事实——Juzi2.5十五种语言的各种性能曲线,几乎全都在同一水平线之上!无论是理解和记忆,推理与认知、自主规划和决策、自我优化与学习、情绪与社交模拟、工具调用……除了生成和表达存在较大的波动值之外,其他几乎所有能力的性能,尤其是推理和认知,在各种语言环境下,几乎是完全一样的!连百分之一的差距都没有!这怎么可能!?这完全违背了大模型的原理!“是不是通过参数调整,把所有语言的性能进行了拉齐操作?或者本身先翻译成盎语后,用盎语思考,再翻译回思维链?”谢尔盖布林感觉自己瞬间头顶和腋下就冒出了汗。人工智能,所谓智能,就是思考,而思考,就需要语言,无论人还是计算机,都不可能脱离语言来思考。大模型AI更是如此。这些大模型,可能掌握了全世界所有的语言,但使用不同语言进行思考时,大模型的在不同方面的性能表现都是不同的。一来,是因为不同语言训练资料的多寡和质量的差异。在当今的互联网时代,盎语语料当然是最丰富的,占到互联网整体资料量的百分之八十以上。AlphaZero在使用盎语进行理解和推理的时候,正确率相对其他语言会高5%以上。二来,各种不同的语言本身就存在不同的“表达偏重”和“性能差异”。比如普鲁士语,在结构推理方面的速度比盎语更快,西拜语则在感性类语料中优势明显。而大模型在一次思考回路中,通常使用单一语言构建其推理路径。虽然它可以在输入阶段识别多种语言,在输出阶段进行翻译,但其内在的认知张量结构,仍旧倾向于使用输入语言所构建的token空间进行语义演算。说人话,就是大模型在思考问题的时候,在一个思考回路中,基本只会使用一种语言来思考,你使用盎文,它就用盎文思考,你使用周文,它就用周文思考。就算它在回复中掺杂了其他语言,也只是一种资料引用或人类写作风格的模仿,而不是真正的跨语种思考。橘子大模型又怎么可能使