新闻中心

EEPW首页>智能计算>业界动态> 微软正在培训一个新的内部AI语言模型,规模足以与谷歌的Alphabet(GOOGL.O)和OpenAI竞争

微软正在培训一个新的内部AI语言模型,规模足以与谷歌的Alphabet(GOOGL.O)和OpenAI竞争

作者:EEPW 时间:2024-05-07 来源:EEPW 收藏

两名了解该情况的员工的话称,这个新模型内部被称为M-1,由最近聘请的谷歌DeepMind联合创始人兼人工智能初创公司Inflection前首席执行官穆斯塔法·苏莱曼监督。

本文引用地址://m.amcfsurvey.com/article/202405/458388.htm

该模型的确切目的尚未确定,将取决于其表现如何。据报道,可能会在本月晚些时候举行的Build开发者大会上预览这个新模型。

路透社联系寻求评论时,微软拒绝置评。

据报道,M-1将比微软先前训练的较小的开源模型“大得多”,这意味着它将更昂贵。

微软上个月推出了一个较小的人工智能模型Phi-3-mini,以期通过成本效益高的选项吸引更广泛的客户群体。

据报道,微软已经在Open上投入了数十亿美元,并在其一套生产力软件中部署了ChatGPT的技术,使其在生成式AI竞赛中取得了早期领先地位。

据报道,微软已经设置了大量服务器集群,配备了英伟达的图形处理单元以及大量数据来改进模型。

报告称,MAI-1将拥有约5000亿个参数,而OpenAI的GPT-4据报道拥有1万亿个参数,Phi-3 mini测量了38亿个参数。

微软于3月任命苏莱曼为其新成立的消费者人工智能部门的负责人,并聘请了几名Inflection的员工。

尽管新模型不是从Inflection继承而来,但它可能会借鉴该初创公司的培训数据。



关键词:AI微软大模型

评论


相关推荐

技术专区

关闭