C114通信网  |  通信人家园

资讯
2024/3/1 09:29

高通再加速生成式AI部署 全平台大模型指日可待

PChome  

生成式AI的重要性不言而喻,高通其实早就强调了AI的重要性,此前就曾提出5G+AI持续融合和演进,将成为无线通信行业的重大发展机遇。

在每年的MWC巴展期间,高通惯例会推出重磅新技术和新产品,本次巴展也不例外,而且高通在连接技术之外,还在现场进行了大量的生成式AI用例展示。

生成式AI的重要性不言而喻,高通其实早就强调了AI的重要性,此前就曾提出5G+AI持续融合和演进,将成为无线通信行业的重大发展机遇。

在最近几个月推出的新手机中,我们已经见证了太多的生成式AI应用,这些功能都提升了手机的主要卖点体验。比如OPPO Find X7 Ultra的AIGC消除功能,即可极大幅度的降低拍照废片率,一些路人突然出现的照片,就可以通过该功能成功拯救。三星Galaxy S24系列的通话实时语音翻译和同传功能,支持了13种语言之间的无缝翻译,出国旅行也可轻松交流。

高通展示AI功能

高通在MWC现场所展示的AI用例则更为神奇,比如在图像生成上,完全不需要一长串的文字标签,只要给出一个比较准确的描述,Stable Diffusion即可快速生成图片,与描述相差无几。

在演示环节中,输入“一只可爱的卷毛猫”这个描述,骁龙手机仅耗时不到7秒的时间,就生成了一张卷毛猫在室内的照片,效果十分真实,好似真实画出来的效果一样。而这张图片完全运用手机内部算力,不进行任何联网操作,速度惊人。

另外,图片生成还能根据个人或艺术偏好,加入自定义元素来展现风格效果。比如在加入“水晶”关键词,并设定好风格权重后,模型就会添加水晶元素,最终生成的图片就很有赛博风格了。这种使用方式很具想象力,我们可以使用它制作表情包,甚至在创作平面、视频内容缺素材时,也能运用AI快速生成符合要求的素材。

端侧生成式AI大模型不仅局限在手机中,此前高通发布的骁龙X Elite平台,成功将其扩展到Windows PC平台中。它能够理解音频并对此进行推理,它可以理解用户输入的音乐类型和风格,为用户提供音乐的历史以及相似的音乐推荐,或通过对话的方式为用户调节周围的音乐,这些都是平时娱乐的一种创造性方式。

如此丰富的AI使用方式,离不开底层硬件的算力支持,毕竟大模型的推理过程需要巨大的算力支持,传统的CPU在这方面的运算效率低下。骁龙X Elite平台则提供专门的NPU,搭载骁龙X Elite平台的Windows PC,NPU运算能力高达45TOPS,具备优秀的AI处理速度。同样生成一张图片,骁龙X Elite平台耗时7.25秒就完成了,而传统的X86平台花了22.26秒才完成运算。

如今,AI的概念在消费电子产品中十分盛行,就在这几天中,AI手机、AI PC等词汇更是火热。想要玩这些概念的话,首先需要的就是足够的AI算力支持。手机平台我们就不用多说了,新款旗舰机已经开始普及AI大模型。而在传统的PC平台中,高通也很好的给我们翻译了,什么才叫真正意义上的AI PC,至少3倍的效率差距,与以往的PC已经不是一个量级的产物了。

在高通展台之外,高通的“朋友圈”也在秀。最火爆展台之一的小米,就展出了小米14 Ultra和小米14系列手机,这些手机搭载第三代骁龙8移动平台,通过AI赋能大幅度的提升了影像能力,小米14 Ultra更是通过AI大模型能力,使手机的长距离变焦效果上升了好几个档次,变焦倍数超过30倍过后,就会通过AI进行运算,让照片具备满满的细节。

小米汽车SU7也是经过AI赋能的,其行业首发道路大模型,还自研了全球首个可量产的“端到端感知决策大模型”,可以实时观察、动态调整泊入机械库位等超高难度车位。在其智能座舱内,搭载16.1英寸3K分辨率中控生态屏,56英寸HUD,车规级7.1英寸翻转式仪表屏,采用2块原生车机系统的小米Pad后排拓展屏,匹配骁龙8295座舱芯片,AI算力30TOPS,可实现五屏联动,带来创造性的人车交互体验。

而在小米之外,高通在其它展台中也通过一部部精品刷着自己的存在感。比如搭载魔法大模型的荣耀Magic6系列,通过AI推理理解用户意图,使应用之间一步直达。

AI Hub加速普及大模型部署

显然,未来整个产业都将向AI考虑,在AI的赋能之下可以为广大消费者提供难以想象的创新使用方式。但如何将AI部署在与我们密切联系的各种应用中,则是所有开发者面临的难题。

高通在MWC 2024所推出的AI Hub,就解决了开发者面临的难题,能够让开发者快速将AI大模型部署到应用中,使开发效率倍增。

AI Hub可以看做是一个模型数据库,开发者想要在应用中使用的话,只需在AI Hub中选择应用所需的模型和应用所使用的框架,之后选择应用的目标平台。确定以上信息后,高通AI Hub就可以为开发者提供优化后的模型,开发者只需要几行代码就可以获取模型,而后就能将模型集成进应用程序中。

高通AI Hub支持超过75个AI模型,为开发者提供的是针对骁龙平台优化后的模型,最高可以将AI推理速度提升4倍,对手机端的内存带宽和存储空间占用也将减少,从而为消费者提供更长的续航时间和更快的运行速度。

AI是未来发展的明确道路,将AI惠及到所有用户,需要的是整个行业的通力合作,芯片厂商需要提供底层算力,设备厂商需要提供产品,开发者需要提供软件。在触及到消费者层面上,硬件、软件、开发工具缺一不可。

AI Hub正是开发工具中的重要一环,结合高通此前提供的AI Stack,能够使开发者高效获得模型,在一次开发过后即可部署到所有平台,大大提升了开发效率,让灵光一现的想法快速完成开发,面向用户。

AI与5G融合 赋能连接性技术体验升级

骁龙平台开始部署AI时,就一直在强调终端侧AI的重要性,并强调5G与AI融合的愿景。其实在2023年发布的骁龙X75调制解调器中,底层就实现了AI与5G的融合,新一代的骁龙X80调制解调器则进行了巩固。

骁龙X80在网络速度上其实没有变化,下行链路速度10Gbps,上行链路速度3.5Gbps。其更注重实际体验上的表现,将AI与5G Advanced性能相结合,在Sub-6GHz频段支持了6载波聚合,具备6路接收能力,扩大射频覆盖范围并提升连接性能。毫米波连接下的定位精度提高30%,功耗降低10%。支持首个基于AI的多天线管理,首次面向CPE支持AI赋能的增程通信。

在面向Wi-Fi的Fastconnect 7900连接系统上,同样是经过了AI赋能的,AI通过对用户使用情境的感知,可获知Wi-Fi连接的用途,从而优化Wi-Fi相应参数,在使用一些应用时,能将终端功耗下降30%,将手机续航推向新高度。

在AI赋能下的连接性技术,在蜂窝网络和Wi-Fi网络均提供更稳定、更省电的体验。在消费者层面来看,当下无线网络的网络速度提升十分有限,运营商套餐直接限制了网速,网络稳定性、低信号区域性能以及省电更被大家所看重,这些都可以通过AI来进行优化的。

结语

正如我们所说,AI是未来的方向,而要将AI快速推进到消费者面前,需要整个业界的通力合作。在MWC 2024上,高通展示了底层算力支持对生成式AI的支持能力,通过AI Hub再次降低了开发者门槛。第三代骁龙8手机的AI使用方式,或许将迎来井喷式的发展,而骁龙X Elite平台PC的入局,或许也能让AI PC真正进入到消费者的眼中。

给作者点赞
0 VS 0
写得不太好

  免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

热门文章
    最新视频
    为您推荐

      C114简介 | 联系我们 | 网站地图 | 手机版

      Copyright©1999-2024 c114 All Rights Reserved | 沪ICP备12002291号

      C114 通信网 版权所有 举报电话:021-54451141