韩国电信公司SK Telecom正在推动韩国成为全球AI强国,近期发布了自主研发的基础模型A.X K1。这一模型不仅在韩语任务上表现出色,在数学和编程领域也展现了竞争力。
随着越来越多国家致力于开发主权AI能力,韩国政府制定了跻身全球前三大AI强国的目标。科学技术信息通信部启动了主权AI基础模型项目,由SK Telecom主导的联盟负责执行全栈战略,涵盖从AI芯片、数据中心到模型和服务的整个AI价值链本地化。
A.X K1是由SK Telecom、游戏巨头Krafton、出行公司42dot、芯片初创企业Rebellions、智能体AI初创公司Liner、数据专家SelectStar、首尔国立大学和韩国科学技术院等八个组织共同开发的超大规模模型,拥有519亿个参数。与纯粹的商业产品定位不同,SK Telecom将其作为国家基础设施,目标是缩小韩国与全球AI领先者的差距。
SK Telecom基础模型办公室负责人Kim Tae-yoon表示,A.X K1不仅是消费产品,还将作为"数字社会基础设施",通过知识蒸馏为更小的专用模型提供知识。这种方式使韩国企业能够部署专业化、成本效益高的AI工具,无需运行完整A.X K1模型所需的巨大计算能力。A.X K1已在今年早些时候以Apache 2.0许可证在Hugging Face上发布。
与以英文为主的西方模型不同,A.X K1从底层设计就考虑了韩语学习。Kim强调,该模型深度理解韩国的文化、经济和历史,适合为韩国用户创建定制化服务。
在性能方面,A.X K1在数学基准测试AIME25上获得89.8分,超越了DeepSeek V3.1的88.4分。在编程能力测试LiveCodeBench中,其英文任务得分为75.8分,韩文任务得分为73.1分,均超过了DeepSeek V3.1的成绩。该模型可处理128,000个Token的单次输入,相当于韩语约100,000个单词,足以同时处理整部小说或公司年度报告等复杂内容。
Kim指出,这支精英团队仅用四个月就完成了如此规模模型的开发和优化,创造了业界奇迹。为了控制运行成本,SK Telecom采用了混合专家架构,在任何给定任务中仅激活519亿个参数中的330亿个。该模型的Token生成量比类似性能的竞争对手模型平均减少4.6倍,最多可减少8倍。其针对韩语优化的分词器相比外国模型降低了33%的Token消耗。
在数学推理等计算密集型任务中,A.X K1能以仅需3到4倍更少Token的方式维持顶级性能,直接降低了GPU使用量、功耗和成本。
目前,包括SK Hynix、SK Innovation、SK AX和SK Broadband等SK集团公司,以及蔚山科学技术院和韩国高等学术研究院在内的20多个机构已表示有意在实际应用中使用和验证A.X K1。SK Telecom联盟计划逐步将该模型整合到其AI服务中,实现"AI for Everyone"愿景。
在工业和企业应用方面,A.X K1具有高度开放性,可以跨越消费和企业领域扩展,并计划推出参数更少的子模型版本。联盟还与KAIST物理AI研究生院和首尔国立大学数学系进行了合作,扩大研究范围。
安全性和未来规划
对于政府和企业客户而言,安全性和数据主权与性能同样关键。SK Telecom凭借电信运营商的背景,向客户保证敏感数据将保留在韩国境内,并符合本地法规要求。Kim表示,SK Telecom通过技术和运营措施确保敏感数据的安全保护,对包括数据训练、存储和推理在内的所有流程保持完全控制权。公司建立了强健的安全框架以及监控和响应系统,阻止对模型的未授权访问。此外,还制定了伦理和安全政策,防止敏感信息在模型开发和运营期间被纳入AI训练。
Kim还提到,公司通过与半导体等数据敏感行业的政府机构、公共机构和企业客户的合作,在高水平监管监督下建立了信任。
下一阶段开发将聚焦多模态能力建设,使模型能够处理图像、语音和视频。SK Telecom联盟还计划扩大训练数据量,并将语言覆盖范围扩展到英文、中文、日文和西班牙文。
根据Gartner研究,到2027年,35%的国家将采用使用专有情境数据的区域特定AI平台。数据主权意识不断提升的国家正在扩大对国内AI栈的投资,寻求美国闭源模式的替代方案,包括计算能力、数据中心、基础设施以及符合本地法律、文化和地区特点的模型。信任度和文化契合度已成为关键标准,决策者倾向于选择与本地价值观、监管框架和用户期望相符的AI平台。
Q&A
Q1:A.X K1是什么?它有什么特点?
A:A.X K1是由SK Telecom等八个组织联合开发的519亿参数主权基础模型。它从底层设计就支持韩语学习,在数学和编程领域性能突出,在AIME25数学基准测试中得分89.8分,超越了DeepSeek V3.1。该模型还可处理128,000个Token的单次输入,约相当于100,000个韩文单词。
Q2:A.X K1的知识蒸馏方式是什么意思?
A:知识蒸馏指的是利用A.X K1作为"教师模型",将知识传递给更小的专用模型。这样韩国企业就能部署70亿参数或更少的专业化、成本效益高的AI工具,无需承担运行完整A.X K1所需的巨大计算成本。
Q3:A.X K1如何控制运行成本?
A:A.X K1采用了混合专家架构,在任何任务中仅激活519亿参数中的330亿个。该模型的Token生成量比竞争对手平均减少4.6倍,且韩语优化的分词器相比外国模型降低了33%的Token消耗,从而直接降低了GPU使用量和功耗。