首页
首页> 软件教程> 不再依赖数据中心 业内人士:AI未来将更小、更便宜

不再依赖数据中心 业内人士:AI未来将更小、更便宜

作者:佚名时间:2025-12-01 20:41:01

多位人工智能(AI)业内人士预测,AI的未来将从ChatGPT这类巨大而昂贵的模型,转向更小型、专用的AI代理,这些系统专门处理特定任务,开发成本更低,甚至能在笔记本电脑上运行,从而无需大型数据中心。

根据汇丰近期一项分析,AI研究公司OpenAI目前声称年收入已达200亿美元,并计划投入1.4万亿美元用于建设新数据中心。然而,即便OpenAI收入在2030年突破2000亿美元,该公司仍需额外筹措2070亿美元以维持运营。

在近日于里斯本举行的网络峰会上,十多位AI业内人士却描述了另一种AI未来。

他们认为,未来将以更小型的AI系统为主,这些系统通常围绕执行特定任务的AI 代理运作,因此不需要OpenAI、谷歌Gemini或 Anthropic Claude那样庞大的大型语言模型。

他们的估值建立在‘越大越好’的假设上,但这并不一定正确,Cognizant首席AI官Babak Hodjat表示。

我们确实使用大型语言模型,但不需要最大的那一种。大模型只要在特定领域能够很好地遵循指令、会使用工具、并能与其他代理沟通,就足够了,Hodjat说。只要达到某个门槛,规模就够用了。

例如,中国AI公司DeepSeek今年1月推出的模型只花了几百万美元开发,因而引发科技股抛售潮。

Hodjat表示,DeepSeek模型每次请求使用的参数量远小于ChatGPT,但功能却具有可比性。一旦模型缩小到一定规模,就不需要数据中心,它们可以直接在MacBook上运行。

这就是差异所在,也是发展趋势,Hodjat说。

多家公司正围绕AI代理或AI应用布局,它们认为用户会希望用专门的App解决特定问题。

Superhuman(前身为 Grammarly)首席执行官Shishir Mehrotra表示,他们运营一个AI代理应用商店,这些代理可以嵌入浏览器,或运行于Grammarly已获授权的数千款应用中。

Mozilla对Firefox也采用类似策略,该公司首席执行官Laura Chambers说:我们有几项AI功能,比如‘摇一摇总结内容’、移动端智能标签分组、链接预览和翻译。这些全部在本地运行,数据不会离开你的设备,也不会共享给模型或大语言模型。我们还有一个侧边栏,你可以选择自己想用的模型。

芯片公司ARM的战略负责人兼首席营销官Ami Badani透露,该公司采取模型无关(model-agnostic)策略。

Badani说:我们会在大模型之上为特定用途创建定制扩展模块。因为不同公司对模型的需求往往差异非常大。

这种方式——由多个高度聚焦、像独立业务一样运作的AI代理——明显不同于大型通用AI平台。

这种模式正吸引着巨额投资。IBM风险投资公司投资了许多看似不起眼、但填补企业特定需求的AI初创公司。

其中一家名为Not Diamond的公司注意到,85%使用AI的企业都会使用多个AI模型。不同模型擅长不同任务,因此为每项任务选择最佳模型变得至关重要。

不再依赖数据中心 业内人士:AI未来将更小、更便宜

以上就是全部内容,喜欢的话记得收藏本站,我们将持续为您带来更多精彩内容。

相关阅读

热门文章

人气下载推荐