下载APP
    扫描二维码
    下载潮新闻客户端
    读报

    Arm CPU已适配千问3

    潮新闻 记者 张云山2025-04-30 10:21全网传播量370
    00:00
    00:00
    01阿里千问3开源后,Arm成功适配成为首批硬件厂商,通过集成Arm KleidiAI和阿里MNN,三款千问3模型能在Arm架构CPU的移动设备上无缝运行,提供强大端侧AI推理能力。
    02千问3是阿里最新开源的混合推理模型,在权威评测集中表现优异,登顶全球最强开源模型。其低功耗、高性能的特点适合在移动终端部署,混合推理模式能大幅节省算力。
    03ArmCPU具备高性能等特点,能快速适配新模型,并通过异构计算策略优化AI系统性能。千问3开源后,Arm第一时间完成部署,三款模型在Arm架构CPU的移动设备上运行和响应速度大幅提升。
    04在此之前,Arm已适配阿里通义千问多款大模型,今年三月,在搭载Arm Cortex-X925旗舰芯片的智能设备上流畅运行了Qwen2-VL-2B-Instruct,并通过集成实现性能显著提升。
    05千问3与Arm的合作,展现了AI模型与硬件厂商的紧密协作,通过技术集成和优化,为用户带来极致的AI体验,推动AI技术在移动终端的广泛应用。
    以上内容由传播大模型和DeepSeek生成,仅供参考

    阿里Qwen3(千问3)开源后,全球领先的计算平台公司Arm已成功适配千问3,成为首批成功适配该模型的硬件厂商,通过集成其开源计算内核Arm KleidiAI和阿里开源的轻量级深度学习框架MNN,Qwen3-0.6B、Qwen3-1.7B 及 Qwen3-4B 三款模型能够实现在搭载Arm架构CPU的移动设备上无缝运行,可为用户提供强大的端侧AI推理能力。

    阿里云资料照片 张云山/摄

    千问3是阿里最新开源的混合推理模型,在AIME、LiveCodeBench等权威评测集上斩获了同尺寸开源模型SOTA,登顶全球最强开源模型。其中,Qwen3-0.6B、Qwen3-1.7B、Qwen3-4B三款模型兼具低功耗和高性能等优势,非常适合在移动终端进行部署。千问3的混合推理模式还能大幅节省算力消耗,对简单需求可低算力“秒回”答案,对复杂问题可多步骤“深度思考”。

    千问3模型家族(采访对象供图)

    Arm CPU具备高性能、高能效、高灵活性及高可扩展性等特点,能快速适配支持全新模型,在模型升级迭代后,还能通过异构计算策略与GPU、加速器及网络技术的融合协作,有效优化 AI 系统的性能。千问3模型于本周二凌晨开源后,Arm第一时间完成移动终端的部署运行,运行结果显示,Qwen3-0.6B、Qwen3-1.7B及Qwen3-4B三款模型在基于Arm架构CPU的移动设备上,运行和响应速度大幅提升,为终端用户带来极致的AI体验。

    在此之前,Arm已适配多款通义千问大模型,今年三月,在搭载基于Arm Cortex-X925 旗舰移动系统芯片 (SoC) 的智能设备上流畅运行了Qwen2-VL-2B-Instruct,并通过Arm KleidiAI与MNN的集成,实现了模型预填充性能提升 57%,解码性能提升 28%。

    “转载请注明出处”