C114通信网  |  通信人家园

人工智能
2024/7/19 09:04

英伟达联合发布Mistral-NeMo AI模型:120 亿参数、上下文窗口12.8万个token,要变革商业AI应用

IT之家  故渊

英伟达联合法国初创公司 Mistral AI,今天发布了全新的 Mistral-NeMo AI 大语言模型,拥有 120 亿个参数,上下文窗口(AI 模型一次能够处理的最大 Token 数量)为 12.8 万个 token。

  VentureBeat 与 Midjourney 合作制作

Mistral-NeMo AI 大模型主要面向企业环境,让企业不需要使用大量云资源的情况下,实施人工智能解决方案。

由于 Mistral NeMo 依赖于标准架构,因此企业在使用过程中可直接替换任何使用 Mistral 7B 的系统。

英伟达是 GPU 制造和人工智能硬件领域的巨头,而 Mistral AI 则是欧洲人工智能领域的后起之秀,双方的合作标志着人工智能行业的企业解决方案发生了重大转变。

行业分析师认为,这一版本可能会极大地颠覆人工智能软件市场。Mistral-NeMo 的推出代表着企业人工智能部署的潜在转变。

通过提供一种可在本地硬件上高效运行的模式,英伟达和 Mistral AI 正在解决阻碍许多企业广泛采用人工智能的问题,如数据隐私、延迟以及与基于云的解决方案相关的高成本。

此举有可能创造公平的竞争环境,让资源有限的小型企业也能利用人工智能功能,而这些功能以前只有拥有大量 IT 预算的大型企业才能使用。

然而,这一发展的真正影响将取决于该模型在实际应用中的表现,以及围绕该模型开发的工具和支持生态系统。

该模型以 Apache 2.0 许可发布,允许商业使用,这将加速其在企业环境中的应用。IT之家附上官方公布的该 AI 模型性能参数如下:

  表 1:Mistral NeMo 基本模型与 Gemma 2 9B 和 Llama 3 8B 的性能比较。

  图 1:Mistral NeMo 在多语言基准测试中的表现。

  图 2:Tekken 压缩率

Mistral NeMo 指令调整模型精度。使用 GPT4o 根据官方参考文献进行的评估。

参考

给作者点赞
0 VS 0
写得不太好

免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

热门文章
    最新视频
    为您推荐

      C114简介 | 联系我们 | 网站地图 | 手机版

      Copyright©1999-2025 c114 All Rights Reserved | 沪ICP备12002291号

      C114 通信网 版权所有 举报电话:021-54451141