大脑、微型模型:西班牙多元宇宙计算公司斥资 2.15 亿美元,将 AI 缩小到智能手机规模

币圈头条 191
大脑、微型模型:西班牙多元宇宙计算公司斥资 2.15 亿美元,将 AI 缩小到智能手机规模 币界网报道:

一家西班牙人工智能初创公司刚刚以一个大胆的声明说服投资者投资 2.15 亿美元:他们可以在不影响其性能的情况下将大型语言模型缩小 95%。

Multiverse Computing 的创新取决于其 CompactifAI 技术,这是一种借用量子物理学的数学概念将 AI 模型缩小到智能手机大小的压缩方法。

这家圣塞巴斯蒂安公司表示,他们压缩的 Llama-2 7B 模型推理速度提高了 25%,同时使用的参数减少了 70%,准确率仅下降 2-3%。

如果得到大规模验证,这可以解决人工智能的巨大问题:模型过于庞大,需要专门的数据中心才能运行。

Multiverse 首席科学官 Román Orús 在一份声明中表示:“历史上第一次,我们能够分析神经网络的内部工作原理,从而消除数十亿个虚假相关性,真正优化各种人工智能模型。”博客文章星期四。

Bullhound Capital 领投了 2.15 亿美元的 B 轮融资,HP Tech Ventures 和东芝也参与其中。

压缩背后的物理原理

应用量子启发的概念来解决人工智能最紧迫的问题之一听起来不太可能——但如果研究坚持下去,这是真的。

与简单地削减神经元或降低数值精度的传统压缩不同,CompactifAI 使用张量网络——物理学家开发的用于追踪粒子相互作用而不会淹没在数据中的数学结构。

该过程就像 AI 模型的折纸一样:权重矩阵被折叠成更小、相互连接的结构,称为矩阵积运算符。

该系统并不存储神经元之间的每个连接,而是仅保留有意义的相关性,同时丢弃冗余模式,例如一遍又一遍重复的信息或关系。

Multiverse 发现,AI 模型并非均匀压缩。早期层级已被证实较为脆弱,而较深的层级(最近被证明对性能的影响较小)则能够承受剧烈压缩。

这种选择性方法可以让它们在其他方法失败的情况下实现尺寸的大幅减小。

压缩后,模型会经历短暂的“修复”——由于参数数量的减少,重新训练只需不到一个epoch。该公司声称,由于GPU-CPU传输负载的降低,此恢复过程比训练原始模型的速度快50%。

长话短说 - 根据公司自己的报价 - 你从一个模型开始,运行 Compactify magic,最终得到一个压缩版本,该版本的参数不到 50%,可以以两倍的推理速度运行,成本低得多,并且功能与原始版本一样强大。

该团队在研究中表明,可以将 Llama-2 7B 模型的内存需求减少 93%,将参数数量减少 70%,将训练速度提高 50%,将回答(推理)速度提高 25%,同时仅损失 2-3% 的准确率。

传统的缩小方法,如量化(降低精度,如使用更少的小数位)、修剪(完全切掉不太重要的神经元,如修剪树上的枯枝)或蒸馏技术(训练较小的模型来模仿较大模型的行为)甚至还无法接近实现这些数字。

Multiverse 已经为包括博世和加拿大银行在内的 100 多家客户提供服务,将其受量子启发的算法应用于人工智能以外的能源优化和金融建模。

西班牙政府共同投资6700万欧元3 月份,总融资额突破 2.5 亿美元。

该公司目前通过 AWS 提供 Llama 和 Mistral 等开源模型的压缩版本,并计划扩展到 DeepSeek R1 和其他推理模型。

OpenAI 或 Claude 的专有系统显然仍然是禁止进入的,因为它们不能用于修补或研究。

这项技术的前景远不止于成本节约。惠普科技风险投资公司的参与表明了其对边缘人工智能部署的兴趣——在本地而非云服务器上运行复杂的模型。

惠普技术与创新总裁 Tuan Tran 表示:“Multiverse 的创新方法有可能为各种规模的公司带来人工智能的优势,即增强性能、个性化、隐私和成本效率。”

所以,如果有一天你发现自己在智能手机上运行 DeepSeek R1,你也许应该感谢这些家伙。

编辑乔什·奎特纳 和 塞巴斯蒂安·辛克莱


推广】项目分享交流群
QQ扫码进群,获取最新项目资讯

相关推荐:

网友留言:

  1. 访客
    大脑、微型模型:西班牙多元宇宙计算公司斥资 2.15 亿美元,将 AI 缩小到智能手机规模
  1. 访客
    币界网报道: 一家西班牙人工智能初创公司刚刚以一个大胆的声明说服投资者投资 2.15 亿美元:他们可以在不影响其性能的情况下将大型语言模型缩小 95%。 Multiverse Computing 的创新取决于其 Compac

我要评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。
验证码