AI巨头之争:Hugging Face 引领小模型革命,重塑人工智能格局
科技快讯中文网
12月29日消息,目前业界模型性能通常与训练期间投入的资源紧密相关。除了大型企业大量投入资源进行模型训练外,许多小型企业和个人开发者实际上并不具备足够的资源。为了解决这一问题,不少团队正在寻求成本更低、效率更高的替代方案。
HuggingFace在本月的报告中提出了一种名为“扩展测试时计算”的方法。这种方法通过增加处理时间来弥补模型的体积限制,使低成本的小型模型能够在给定足够的时间下,生成大量的可能结果。随后,利用验证器对这些结果进行测试和修正,最终能够达到与高成本大型模型相媲美的效果。 这种创新的方法不仅为小型模型提供了更多的可能性,还展示了在资源有限的情况下,如何通过巧妙地调整时间和算法来提升模型性能。这无疑为人工智能领域提供了一条新的路径,特别是在预算有限或计算资源受限的情况下。未来,我们或许可以看到更多基于此方法的应用案例,进一步推动AI技术的发展。
HuggingFace团队表示,他们采用此方法利用拥有10亿参数的Llama模型进行数学基准测试,在某些情况下甚至超过了参数量高达70亿的大型模型,这证明了通过增加时间来提升模型输出效果的做法是可行的。
此外,近日,谷歌DeepMind公布了一项新研究,他们提出可以通过动态分配运算资源给小模型,并利用验证器对模型的解答结果进行评分,从而引导模型不断输出正确的答案。这一方法有望帮助企业以较少的资源部署足够精度的语言模型。这项技术的发展不仅体现了人工智能领域在资源效率上的进步,还可能为未来模型训练和部署提供一种更为经济高效的方式。随着技术的进一步成熟,我们可以期待它在实际应用中展现出更大的潜力,尤其是在资源有限的环境中。
免责声明:本站所有文章来源于网络或投稿,如果任何问题,请联系648751016@qq.com
页面执行时间0.009783秒