韩国推出主权基础模型加速AI产业自主发展
创始人
2026-02-03 00:41:47

韩国电信公司SK Telecom正在推动韩国成为全球AI强国,近期发布了自主研发的基础模型A.X K1。这一模型不仅在韩语任务上表现出色,在数学和编程领域也展现了竞争力。

随着越来越多国家致力于开发主权AI能力,韩国政府制定了跻身全球前三大AI强国的目标。科学技术信息通信部启动了主权AI基础模型项目,由SK Telecom主导的联盟负责执行全栈战略,涵盖从AI芯片、数据中心到模型和服务的整个AI价值链本地化。

A.X K1是由SK Telecom、游戏巨头Krafton、出行公司42dot、芯片初创企业Rebellions、智能体AI初创公司Liner、数据专家SelectStar、首尔国立大学韩国科学技术院等八个组织共同开发的超大规模模型,拥有519亿个参数。与纯粹的商业产品定位不同,SK Telecom将其作为国家基础设施,目标是缩小韩国与全球AI领先者的差距。

SK Telecom基础模型办公室负责人Kim Tae-yoon表示,A.X K1不仅是消费产品,还将作为"数字社会基础设施",通过知识蒸馏为更小的专用模型提供知识。这种方式使韩国企业能够部署专业化、成本效益高的AI工具,无需运行完整A.X K1模型所需的巨大计算能力。A.X K1已在今年早些时候以Apache 2.0许可证在Hugging Face上发布。

与以英文为主的西方模型不同,A.X K1从底层设计就考虑了韩语学习。Kim强调,该模型深度理解韩国的文化、经济和历史,适合为韩国用户创建定制化服务。

在性能方面,A.X K1在数学基准测试AIME25上获得89.8分,超越了DeepSeek V3.1的88.4分。在编程能力测试LiveCodeBench中,其英文任务得分为75.8分,韩文任务得分为73.1分,均超过了DeepSeek V3.1的成绩。该模型可处理128,000个Token的单次输入,相当于韩语约100,000个单词,足以同时处理整部小说或公司年度报告等复杂内容。

Kim指出,这支精英团队仅用四个月就完成了如此规模模型的开发和优化,创造了业界奇迹。为了控制运行成本,SK Telecom采用了混合专家架构,在任何给定任务中仅激活519亿个参数中的330亿个。该模型的Token生成量比类似性能的竞争对手模型平均减少4.6倍,最多可减少8倍。其针对韩语优化的分词器相比外国模型降低了33%的Token消耗。

在数学推理等计算密集型任务中,A.X K1能以仅需3到4倍更少Token的方式维持顶级性能,直接降低了GPU使用量、功耗和成本。

目前,包括SK Hynix、SK Innovation、SK AX和SK Broadband等SK集团公司,以及蔚山科学技术院和韩国高等学术研究院在内的20多个机构已表示有意在实际应用中使用和验证A.X K1。SK Telecom联盟计划逐步将该模型整合到其AI服务中,实现"AI for Everyone"愿景。

在工业和企业应用方面,A.X K1具有高度开放性,可以跨越消费和企业领域扩展,并计划推出参数更少的子模型版本。联盟还与KAIST物理AI研究生院和首尔国立大学数学系进行了合作,扩大研究范围。

安全性和未来规划

对于政府和企业客户而言,安全性和数据主权与性能同样关键。SK Telecom凭借电信运营商的背景,向客户保证敏感数据将保留在韩国境内,并符合本地法规要求。Kim表示,SK Telecom通过技术和运营措施确保敏感数据的安全保护,对包括数据训练、存储和推理在内的所有流程保持完全控制权。公司建立了强健的安全框架以及监控和响应系统,阻止对模型的未授权访问。此外,还制定了伦理和安全政策,防止敏感信息在模型开发和运营期间被纳入AI训练。

Kim还提到,公司通过与半导体等数据敏感行业的政府机构、公共机构和企业客户的合作,在高水平监管监督下建立了信任。

下一阶段开发将聚焦多模态能力建设,使模型能够处理图像、语音和视频。SK Telecom联盟还计划扩大训练数据量,并将语言覆盖范围扩展到英文、中文、日文和西班牙文

根据Gartner研究,到2027年,35%的国家将采用使用专有情境数据的区域特定AI平台。数据主权意识不断提升的国家正在扩大对国内AI栈的投资,寻求美国闭源模式的替代方案,包括计算能力、数据中心、基础设施以及符合本地法律、文化和地区特点的模型。信任度和文化契合度已成为关键标准,决策者倾向于选择与本地价值观、监管框架和用户期望相符的AI平台。

Q&A

Q1:A.X K1是什么?它有什么特点?

A:A.X K1是由SK Telecom等八个组织联合开发的519亿参数主权基础模型。它从底层设计就支持韩语学习,在数学和编程领域性能突出,在AIME25数学基准测试中得分89.8分,超越了DeepSeek V3.1。该模型还可处理128,000个Token的单次输入,约相当于100,000个韩文单词。

Q2:A.X K1的知识蒸馏方式是什么意思?

A:知识蒸馏指的是利用A.X K1作为"教师模型",将知识传递给更小的专用模型。这样韩国企业就能部署70亿参数或更少的专业化、成本效益高的AI工具,无需承担运行完整A.X K1所需的巨大计算成本。

Q3:A.X K1如何控制运行成本?

A:A.X K1采用了混合专家架构,在任何任务中仅激活519亿参数中的330亿个。该模型的Token生成量比竞争对手平均减少4.6倍,且韩语优化的分词器相比外国模型降低了33%的Token消耗,从而直接降低了GPU使用量和功耗。

相关内容

热门资讯

省政协委员:打通科技成果转化“... 打通科技成果转化的“最后一公里”,不仅需要政策引导,更需要懂技术、懂市场、懂高校的复合型人才作为桥梁...
优化人工智能应用生态 来自国务院新闻办公室的消息,2025年我国人工智能产业活力迸发、成绩显著,人工智能企业数量超6000...
大厂们的春节“豪赌”:莉莉丝、... 进入2月,恰逢春节黄金档期,新老游戏之间的市场竞争预计将趋于白热化。据陀螺君初步统计,2月共有24款...
拓元科技申请用于成型魔术贴立柱... 国家知识产权局信息显示,广州拓元科技发展有限公司申请一项名为“一种用于成型魔术贴立柱的模具组件”的专...