总部位于硅谷的人工智能(AI)计算初创公司 宣布发布七个开源的类似的AI模型。此举旨在鼓励研究和商业界的合作和创新。这些模型都是在 的 AI 超级计算机 上训练的,范围从较小的 111.13 亿个参数语言模型到一个庞大的 亿个参数模型。以下是详细信息…
推出类似的开源AI模型
的创始人兼首席执行官安德鲁·费尔德曼( )强调了开源在人工智能社区中的重要性,并将其大部分进步归功于协作环境。他承认,虽然最近出现了关闭开源人工智能项目的趋势,因为它们具有商业潜力,但保持开放性对于持续创新至关重要。
的型号范围允许在各种设备上部署。较小的型号可以在智能手机或智能扬声器上运行,而较大的型号需要PC或服务器。这种灵活性可以满足不同的需求和应用,但对于更复杂的任务,例如大通道摘要,需要更大的模型。
虽然较大的模型通常提供更高级的生成函数,但寒武纪AI的芯片顾问Karl 指出,尺寸并不是一切。他引用了最近的研究表明,如果更有效地训练,较小的模型可以同样准确,这表明在大小和训练质量之间进行权衡。
费尔德曼透露,他们最大的模型只用了一个多星期的时间来训练,这个过程通常需要几个月的时间。这种加速可以归因于 系统的独特架构,该系统具有专为 AI 训练设计的餐盘大小的芯片。
目前,大多数人工智能模型都是在英伟达公司的芯片上训练的,但越来越多的像这样的初创公司正在进入市场,以索取自己的份额。证实,在机器上训练的模型可以在系统上用于额外的训练或定制,为用户提供灵活性和适应性。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...