在AI PC的热潮之下,就连RISC-V都来凑热闹。在近日举办的“进迭时空2024年度发布会上”,RISC-V厂商进迭时空发布了其SpacemiT Muse系列生态产品,其中就包括了Muse Book这一RISC-V笔记本产品,进迭时空将其称为最便携的RISC-V开发平台。
Muse Book,最便携的RISC-V开发平台
Muse Book配备了一颗8核RISC-V CPU,16GB的LDDR4X内存,并搭载了进迭时空基于Debian发行版深度优化的操作系统Bianbu。为了做到轻便,Muse book采用了全金属无风扇的设计,但同时超高的能效比又能使其做到8+小时的续航,还支持PD 3.1快充。
Muse Book软件生态支持 / 进迭时空
在软件支持上,Muse Book预装了Chromium、LibreOffice、Docker、Python、VS Code的常用软件,还有GCC/LLVM等开发工具和应用,支持本地编译以及通用编译器。进迭时空也将通过开发者社区提供各类刷机工具、ISP tuning工具、AI部署工具等,也给用户准备好了预编译镜像,包括OpenSBI、U-Boot、Linux内核等。
Muse Book 8pin开发接口 / 进迭时空
在接口配置上,除了USB-A、USB-C、3.5mm耳机接口、MicroSD卡槽等,Muse Book还定制了一个8pin的开发接口,兼顾I2C/UART/PWM,并提供开发者容器,方便实现开发环境一键部署。
相信最令人好奇的,还是Muse Book搭载的进迭时空自研RISC-V AI CPU——SpacemiT Key Stone K1。在CPU性能上,K1提供了50KDMIPS的CPU通用算力和2.0TOPS的AI算力,其单核CPU算力要领先Arm Cortex-A55核心30%以上。
K1搭载了进迭时空自研的X60智算核心,不仅在算力上超过了Arm Cortex-A55,在LMBench复制读写速度测试和内存Stream上,也超过了后者。基于RISC-V的向量拓展Vector 1.0,X60可以提供两倍于Arm Neon的256-bit SIMD并行处理能力,在图形处理相关的AI算法上,可以提供更高的性能。
对AI模型的适配
对任何非传统架构的AI硬件而言,对现有主流AI模型的支持是一个大难题。目前,主流AI推理生态主要包括英伟达的GPU推理生态和X86的CPU推理生态,但其他架构的芯片也可以通过一些转换手段完成对模型的适配。
K1芯片采用了复用X86成熟的AI推理软件栈的方式,把底层核心算子改用RISC-V Vector和AI指令,其余部分复用CPU推理软件栈,从而快速接入国际主流的AI推理生态。进迭时空表示,使用K1芯片,通过Python调用和执行一个开源模型,只要不到10行代码,就可以快速部署一个AI模型。
目前K1芯片已累计验证了包括图像分类、图像分割、目标检测、语音识别、自然语言理解等多个场景的约150个模型的优化部署,timm、onnx modelzoo、ppl modelzoo等开源模型仓库的支持通过率接近100%,理论上K1芯片能够支持所有的公开onnx模型。如此一来,用户在少量修改甚至无需修改代码的情况下,就能在Muse Book完成高效的推理计算。
写在最后
如今越来越多的厂商都开始围绕RISC-V打造中高端的消费电子产品,这无疑说明了RISC-V内核在高性能上有了长足的进步,软件生态也得到了进一步完善。但这也仅仅只是刚迈出步伐而已,更多商用软件生态的支持和更完善的硬件设计,会给RISC-V带来新的突破。