当前位置: 主页 > 大牌玩具 > > 详情
为什么缩小大语言模型是生成式人工智能的未来?

来源:站长之家  2023-08-15 16:09:25


(资料图片)

本文概要:

1. 大型语言模型(LLM)在企业使用中存在明显挑战,而较小的语言模型则可以更好地适应企业需求。

2. 较小的语言模型可以在现有的安全环境中进行操作和训练,速度更快、准确性更高。

3. 较小的语言模型可以基于企业的敏感数据进行定制,与其他数据集结合使用,为企业提供更有价值的洞察力。

编程客栈() 8月15日 消息:很多企业热衷于接入生成式人工智能,但像 ChatGPT js这样的大型语言模型 给企业使用带来了明显的挑战。本月的一项 研究 发现,75% 的组织正在考虑或已经实施生成式人工智能应用的禁令,理js由是安全、隐私和其他问题。训练大语言模型的高昂成本也 被视为采用的重大障碍。

据报道,像 ChatGPT 这样的法学硕士 接受了超过1000亿个“参数”或决定模型行为的值的训练。这使得它们的建造和运营成本极其昂贵——训练 ChatGPT的估计成本 为400万美元。

为了从生成式人工智能中获得价值,未来的发展方向在于更小的语言模型,它们仅需要更少的时间和资源来维护,并且可以在企业的安全云环境中进行操作。较小的语言模型可以针对更窄的任务集进行优化,从而实现更快速和更准确的结果。

与公共 LLM 不同,较小的语言模型可以通过训练企业最敏感的数据进行定制,而无需将数据输入到公共 LLM 中,因python此安全和隐私风险编程客栈较低。这些较小的模型还可以结合第三方数据源,如经济数据、商品价格、天气等,为企业提供更全面的洞察力。

未来,可能会出现只有少数几个被广泛使用的基础 LLM,由 Meta、Google 和百度等技术巨头运营。较小的语言模型有着广阔的应用前景,可以在公司或部门级别提供有价值的洞察力,是释放生成式人工智能真正力量的关键。

猜你喜欢