在星期二,Tether推出了一种跨平台的LoRA微调框架,用于微软的Bitnet模型,介绍了他们所称的第一套能够在消费者设备上训练和运行1位大型语言模型的系统,包括智能手机和笔记本电脑。
此发布是Tether的QVAC Fabric堆栈的一部分,旨在减少通常与人工智能开发相关的重计算和内存需求,而这通常仅限于云服务提供商和高端Nvidia硬件。
通过支持异构硬件——包括来自Intel、AMD和Apple的芯片,以及移动GPU——该框架允许开发人员在本地微调模型,而无需依赖集中化基础设施。
实际上,这意味着曾经仅限于数据中心的AI工作负载现在可以在背包或口袋中的设备上运行,这一转变可能降低成本并扩大美国及全球开发者的访问机会。
Tether表示,其工程师成功演示了在移动GPU上进行Bitnet微调,包括Adreno、Mali和Apple Bionic芯片,这标志着新兴的1位模型架构取得了首次突破。
公司发布的性能基准显示,在Samsung S25设备上,一个1.25亿参数的模型大约可以在10分钟内微调,而一个10亿参数的模型在相同硬件上完成相同任务大约需要1小时18分钟。
在Apple设备上,公司报告了类似的结果,一个10亿参数的模型在iPhone 16上微调大约需要1小时45分钟,并且实验运行将模型推向了高达130亿参数的规模。
框架还显示出可测量的推理速度提升,移动GPU的性能是CPU的两到11倍,依据Tether的内部基准测试。
内存效率是另一个关键卖点,Bitnet-1B使用的VRAM比类似的16位模型少达77.8%,且比其他广泛使用的架构少65%以上,使得大型模型能够在有限的硬件上运行。
Tether表示,该系统还首次在此类别中支持在非Nvidia硬件上进行LoRA微调,这一举措可以减少对专业芯片和云服务的依赖,同时保持敏感数据存储在用户设备本地。
公司补充说,该方法可以使联邦学习更具实用性,通过允许模型在分布式设备上进行训练,而无需集中数据,这是一个在隐私关注的AI开发中日益受到关注的领域。
“通过在消费者硬件上,包括智能手机上,启用有意义的大型模型训练,Tether的QVAC证明先进的AI可以去中心化、包容并赋能每一个人,”Tether首席执行官Paolo Ardoino在一份声明中表示,并补充说,公司计划继续投资于设备端AI基础设施。
技术发布,包括基准和实施细节,已经通过Hugging Face发布,表明了直接接触开发者的努力,而不是将技术封锁在专有系统后面。
- 是什么Tether的新AI框架?
Tether的QVAC Fabric推出了一个跨平台系统,用于在手机和笔记本电脑等消费者设备上训练和运行Bitnet AI模型。 - 智能手机真的可以训练AI模型吗?
是的,Tether的基准显示,十亿参数模型可以在Samsung S25和iPhone 16等设备上在数小时内完成微调。 - 这对美国开发者有什么重要性?
它减少了对昂贵的云基础设施和专业GPU的依赖,降低成本并增加了AI开发的可访问性。 - Bitnet与其他模型有什么不同?
BitNet使用1位架构,相较于传统16位模型显著减少内存使用并提高效率。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。