资讯
`
2025/7/5 19:11
华为盘古团队回应“抄袭”:基于昇腾硬件平台开发,严格遵循开源许可证
0
0

C114讯 7月5日消息(南山)6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型,同时开放基于昇腾AI平台的模型推理技术。此次是华为首次将盘古大模型的核心能力开源。

但在7月4日(昨日),一篇技术论文在专业论坛Github上引起热议。文章认为,通过比较,发现盘古Pangu Pro MoE模型与Qwen-2.5 14B模型在注意力参数分布上有相关性,超正常范围。

被质疑“抄袭”阿里云的模型,华为盘古Pro MoE技术开发团队今日迅速进行了公开回应。

回应称,我们注意到近期开源社区及网络平台关于盘古大模型开源代码的讨论。

盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来,在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升训练效率。

回应强调,盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。

据了解,盘古是华为推出的一系列超大规模人工智能预训练模型,涵盖自然语言处理、计算机视觉、科学计算等多个领域。其名称寓意“开天辟地”,象征着华为在人工智能基础研究和行业应用上的突破性探索。盘古模型自发布以来,已在多个行业中实现落地,包括金融、制造、能源、交通等,助力企业实现智能化升级。

版权说明:C114刊载的内容,凡注明来源为“C114通信网”或“C114原创”皆属C114版权所有,未经允许禁止转载、摘编,违者必究。对于经过授权可以转载我方内容的单位,也必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和本站来源。编译类文章仅出于传递更多信息之目的,不代表证实其描述或赞同其观点;翻译质量问题请指正

给作者点赞
0 VS 0
写得不太好

C114简介     联系我们     网站地图

Copyright©1999-2025 c114 All Rights Reserved 沪ICP备12002291号-4

C114通信网版权所有 举报电话:021-54451141 用户注销