首页 > 资讯 > 国际 > 正文
2024-05-03 07:56

薄荷primer | Honey I缩水AI:最新的科技收购

本月,meta发布了其新的人工智能模型lama-3,微软推出了Phi-3。与大型语言模型(llm)相比,每个模型的基本版本都很小。事实证明,缩小人工智能模型是大型科技公司为覆盖世界上每一个用户所做的事情。

为什么公司在人工智能模型上做得更小?

小型语言模型(slm)只占llm的0.1%。例如,谷歌的Gemini Nano-1使用18亿个数据参数,而OpenAI的GPT-4使用1.75万亿个参数。这有很多好处——公司建立模型需要更少但更具体的数据,这更容易获得。此外,小型模型将需要不那么强大的计算机来训练,因此成本降低了。对于用户来说,任何普通的智能手机都可以运行和处理这样的人工智能模型,从而节省了云计算的成本。这使得人工智能模型更有市场,因此,比法学硕士更直接的货币化。

为什么我们需要大模型?

llm的最大优势在于其种类繁多,使其具有通用性。这类似于像谷歌这样的普通搜索引擎,而不是内置在网页中的搜索功能。slm不能如此通用,这意味着每个主题或类别都需要它们各自的模型才能有效地运行。llm通常也更有能力,因为它们是在更长的时间内构建和训练的,并且有更多的数据可以交叉引用复杂的查询。虽然slm适用于专门构建的用例,但llm对于基础用途(如高性能研究)至关重要。

阅读更多:L&T如何设计一个人工智能驱动的企业集团

 

公司已经在使用小型模型了吗?

除了meta和微软,Salesforce还推出了XGen-7b,它使用了70亿个数据参数,用于生成编码语法。美国科技公司hug Face也有专门为对话设计的SLM Zephyr。谷歌的slm, Gemini Nano,智能手机上的能量聊天转录和摘要。

这将如何改变我们的设备?

最大的好处是它们需要更少的计算能力。这意味着智能手机、笔记本电脑以及智能扬声器和家电等设备将能够运行这些模型。这意味着任何普通的移动应用程序都可能发生变化。语音通话和录音的转录可能成为主流,而智能扬声器和设备的语音接口可以更好地进行对话。甚至照片编辑也可以包括人工智能来创建背景或删除对象——三星和谷歌已经在他们的手机中使用了这个功能。

阅读更多:Co咨询公司建立了一种独特的伙伴关系:人工智能与ca协同工作

 

这对公司有影响吗?

是的。主要构建这些人工智能模型的大型科技公司,现在可以为各种各样的应用和行业创建小众人工智能模型,从而将生成式人工智能货币化——迄今为止,这是一个非常昂贵的领域。开发人员将能够获得更广泛的功能,这可能会引发一场竞争,成为将生成式人工智能推向大众的先行者。英伟达(Nvidia)等公司可能会受到影响——在手机和笔记本电脑上本地运行人工智能模型可能会消除对云和GPU基础设施的主流需求。