11月26日快科技消息,据媒体报道,新加坡国家人工智能计划(AISG)正迎来一次关键的战略转向。在其最新的东南亚语言大模型项目中,AISG放弃了Meta的模型,转而采用阿里巴巴的通义千问(Qwen)开源架构。这一选择不仅反映了技术路线上的重新考量,也标志着中国开源AI模型在全球影响力扩展中的重要一步。
11月25日,AISG发布了基于Qwen架构的Qwen-SEA-LION-v4模型,该模型迅速登顶一项衡量东南亚语言能力的开源榜单。此举旨在解决长期困扰该地区的语言适配难题——以Meta的Llama系列为代表的西方开源模型,在处理印尼语、泰语、马来语等区域性语言时表现欠佳,严重制约了本地化AI应用的开发效率。
尽管Llama在开源模型中性能领先,但其英语中心主义的底层设计难以根本改变,在处理泰语、缅甸语等非拉丁语系文字时效率极低。AISG逐渐认识到,依赖硅谷的开源模型并非东南亚国家的最优解,必须寻找真正具备多语言理解能力、尤其是亚洲语言语境的基础模型。

在这一背景下,AISG最终将目光投向了中国,选择以阿里的Qwen3-32B作为新一代Sea-Lion模型的基座。
与西方模型不同,Qwen3在预训练阶段就使用了高达36万亿个token的数据,覆盖全球119种语言和方言。这种原生多语言能力使其不仅认识印尼语、马来语等文字,更能从底层理解其语法结构,大幅降低了AISG后续训练的技术门槛。
为更好地适配东南亚语言独特的书写习惯,Qwen-Sea-Lion-v4摒弃了西方模型常用的句子分词器,转而采用更先进的字节对编码(BPE)分词器。该技术能更精准地切分泰语、缅甸语等无空格语言中的字符,显著提升翻译准确度与推理速度。
除技术优势外,商业落地的现实考量也是阿里胜出的关键。东南亚地区拥有大量中小企业,难以承担昂贵的H100 GPU集群。而经过优化的Qwen-Sea-Lion-v4可在配备32GB内存的消费级笔记本电脑上流畅运行,使普通开发者也能在本地部署这一国家级模型。这种工业级能力、消费级门槛的特性,精准契合了该地区算力资源稀缺的痛点。
此次合作并非单向技术输出,而是一次深度的双向融合。根据协议,阿里提供了强大的通用推理底座,AISG则贡献了其经过清洗的1000亿个东南亚语言token。这些数据完全规避版权风险,且东南亚内容浓度高达13%,是Llama2的26倍。
在Sea-Helm评估榜单中,搭载阿里技术核心的Sea-Lion v4迅速登顶同量级开源模型榜首,验证了这一战略合作的技术价值与区域适配性。

以上就是全部内容,喜欢的话记得收藏本站,我们将持续为您带来更多精彩内容。