开源 AI 使现代 PC 变得重要,而订阅似乎很寒酸

开源 AI 使现代 PC 变得重要,而订阅似乎很寒酸

开源人工智能使现代个人电脑变得重要,而订阅似乎很破旧。柏拉图区块链数据智能。垂直搜索。人工智能。

去年这个时候,计算领域的最新趋势变得不容忽视:巨大的硅片和数千亿个晶体管——这是另一组避免摩尔定律被遗忘的变通方法的必然结果。

但个人电脑销量下滑表明我们不需要这些巨型电脑——这不仅仅是因为 COVID 造成的销售阴影。

2022 年上半年,企业计算看起来与过去十年几乎相同:基本的办公应用程序、团队通信应用程序,以及针对创意阶层的一些富媒体工具。 当然,游戏玩家总能找到让这些晶体管工作的方法,但绝大多数硬件已经过载且工作不足。 为什么要在已解决的问题上浪费晶体管?

然后世界变了。 一年前,OpenAI 推出了 DALL-E,这是第一个广泛使用的生成 AI 工具——一个将噪音、文本提示和大量权重数据库转换为图像的“扩散器”。 这看起来就像魔法一样。 不久之后,Midjourney 提供了大致相同的内容——尽管调谐到明显的 70 年代 Prog Rock 专辑封面美学。 随着这些工具进入 Microsoft、Canva、Adobe 和其他公司的产品,对云计算的需求似乎会猛增。

然后世界又变了。 XNUMX 月,Stability AI 推出了扩散器权重的开源数据库。 一开始,Stable Diffusion 需要最先进的 GPU,但开源社区很快发现它可以优化扩散器以在几乎任何东西上运行。 它不一定很快,但它会起作用——而且它会随着你的硬件而扩展。

不需要海量的云资源, 这些较新的人工智能工具在本地运行. 如果你购买了一台巨型计算机,它们的运行速度至少与 OpenAI 或 Midjourney 提供的任何产品一样快——无需订阅。

推动 Stable Diffusion 的永远令人兴奋的开源社区创造了一系列令人印象深刻的新扩散器权重,每个权重都针对特定的审美。 Stable Diffusion 不仅与商业 AI 公司提供的任何东西一样快——它更有用,也更具可扩展性。

然后——是的,你猜对了——世界又变了。 XNUMX 月初,OpenAI 的 ChatGPT 完全改写了我们对人工智能的预期,成为最快达到 100 亿用户的网络应用程序。 由“生成式预训练转换器”提供支持的大型语言模型 (LLM)——我们中有多少人忘记了 GPT 代表什么? – 它根据互联网上可用的大量文本训练其权重。

据估计,这项培训工作耗费了数百万(可能是数千万)Azure 云计算资源。 预计进入成本足以让竞争对手望而却步——也许 Google 和 Meta 除外。

直到,世界再次改变。 三月,元 已发布 LLaMA – 一种更加紧凑和高效的语言模型,具有相对较小的权重数据库,但响应质量接近 OpenAI 的 GPT-4。

凭借只有 32 亿个参数的模型,LLaMA 可以轻松地坐在具有 XNUMXGB RAM 的 PC 中。 非常像 ChatGPT 的东西——由于其庞大的权重数据库而在 Azure 云上运行——几乎可以在任何地方运行。

Meta 的研究人员向他们的学术同行提供了他们的权重,可以免费下载。 由于 LLaMA 可以在他们的实验室计算机上运行,​​斯坦福大学的研究人员立即通过他们称为 LLaMA 的新训练技术改进了 LLaMA 羊驼劳拉,这将训练现有权重集的成本从数十万美元降至数百美元。 他们也分享了他们的代码。

正如 DALL-E 在可用性和可扩展性方面输给了 Stable Diffusion,ChatGPT 看起来正在输掉另一场比赛,因为研究人员生产了一系列模型——例如 Alpaca, 比库尼亚, 考拉,以及其他的动物园——可以快速且廉价地进行培训和再培训。

他们的进步比任何人预期的都要快得多。 部分原因是他们正在对许多已在 Reddit 等网站上共享的 ChatGPT“对话”进行训练,并且它们可以在大多数 PC 上运行良好。 如果你有一台巨型计算机,它们确实运行得很好。

一年前我们还无法想象用途的机器已经找到了它们的用途:它们正在成为我们所有生成 AI 任务的主力。 他们帮助我们编写代码、计划、写作、绘图、建模等等。

我们不会依赖于订阅来使这些新工具发挥作用。 看起来开源已经超过了扩散器和转换器的商业发展。

开源 AI 还让我们想起了 PC 激增的原因:通过让曾经只能在办公室使用的工具带回家成为可能。

这不会关闭商业之门。 如果有的话,这意味着企业家有更多的空间来创造新产品,而不用担心他们是否侵犯了谷歌、微软、Meta 或其他任何人的商业模式。 我们正进入一个技术普遍中断的时代——规模似乎并不能带来很多优势。

怪物逍遥法外。 我认为这是一件好事。 ®

时间戳记:

更多来自 注册