投资要点

  算力:恒源云13核+128G算力紧张,英伟达发布AI超级计算机Jetson Orin Nano Super

  本周恒源云13核+128G算力紧张。具体来看,显卡配置为A100-40G中,腾讯云16核+96G价格为28.64元/时,阿里云12核+94GiB价格为31.58元/时;显卡配置为A100-80G中,恒源云13核+128G算力紧张;阿里云16核+125GiB价格为34.74元/时;显卡配置为A800-80G中,恒源云16+256G价格为9.00元/时。

  近日,英伟达推出了一款全新的尺寸小巧的生成式AI超级计算机NVIDIA Jetson Orin Nano Super,该开发者套件只有手掌大小,能够为商业AI开发者、科技爱好者和学生等各类人群提供更强大的生成式AI功能与性能,目前建议零售价2070人民币。Jetson Orin Nano Super凭借其卓越性能,无论是创建基于检索增强生成的LLM聊天机器人、构建视觉AI智能体,还是部署基于AI的机器人,均能得以有效实现。Jetson Orin Nano Super亮点如下:

  具备颠覆性的生成式AI模型性能。NVIDIA最新软件更新将TOPS,并将内存带宽从68GB/s提升至102GB/s,使开发者能够更高效地运行各种生成式AI模型。与上一代产品相比,NVIDIA Jetson Orin Nano Super的生成式AI推理性能提升至1.7倍,性能提升70%,达到67INT8TOPS,内存带宽提高50%,达到102GB/s。NVIDIA Jetson Orin NanoSuper在各种热门大语言模型(LLM)、视觉语言模型(VLM)和视觉Transformer上的性能相比前代产品均有显著提升。助力解锁更多AI场景应用。NVIDIA Jetson Orin NanoSuper可提供出色的AI计算能力、快速的内存带宽和全面的软件堆栈,为新的生成式AI应用提供卓越的能效,它支持任何基于Transformer的生成式AI模型的快速推理。在机器人领域,从开发到仿真再到部署,借助AI加速机器人开发,实现移动、抓取和视觉等关键功能,实现为各行各业构建机器人。在视觉领域,其搭载的NVIDIA Metropolis集成了视觉数据和AI,可以处理适用于顺畅零售、库存管理、智慧城市交通、工厂检查和医疗健康等应用的传感器数据。目前,NVIDIA Jetson Orin包含Jetson AGX Orin、JetsonOrin NX和Jetson Orin Nano三款系列产品,可为开发者提供不同性能和价位的加速计算能力,从而满足多种自主应用的需求。

  AI应用:豆包大模型家族全方位优化升级

  2024年12月18日火山引擎FORCE原动力大会上,火山引擎展示了其全新升级的豆包大模型家族,包含豆包视觉理解模型、豆包3D生成模型,以及全面更新的豆包通用模型pro、音乐模型、文生图模型等,为企业提供多模态大模型能力。豆包大模型于12月实现日均tokens使用量超过4万亿,较5月发布时期增长超过33倍,稳居行业领先地位。

  视觉理解模型重磅发布。豆包视觉理解模型具备以下三种能力:更强的内容识别能力,可识别出图像中的物体类别、形状等基本要素以及理解物体之间的关系、空间布局以及场景的整体含义;更强的理解和推理能力,能根据所识别的文字和图像信息进行复杂的逻辑计算;更细腻的视觉描述能力,可以基于图像信息,更细腻地描述图像呈现的内容以及多种文体创作。以上能力极大拓展了大模型的场景边界,在金融、医疗、建筑、地理、体育、物流等诸多行业有着广阔应用前景。除此之外,视觉理解的输入价格为每千tokens0.003元,比行业平均价格降低85%,相当于1元钱可以处理284张720P的图片,具备高性价比优势,视觉理解模型正式走进厘时代。同时火山引擎还将提供更高的初始流量,RPM达到15000次,TPM达到120万,让企业和开发者用好视觉理解模型,找到更多创新场景。

  模型家族迎来全面升级。火山引擎除了推出视觉理解模型之外,还发布、升级了多个其他模型,大模型家族成员更丰富,大模型能力再提升。大会发布豆包3D生成模型,其与火山引擎数字孪生平台veOmniverse结合使用,可以高效完成智能训练、数据合成和数字资产制作,成为一套支持AIGC创作的物理世界仿真模拟器。此外,豆包通用模型pro全面升级,对齐GPT-4o,使用价格仅为后者的1/8;音乐模型从生成60秒的简单结构,升级到生成3分钟的完整作品;文生图模型2.1版本在业界首次实现精准生成汉字和一句话P图的产品化能力,该模型已接入即梦AI和豆包App。

  AI应用开发平台全新升级。火山引擎升级了火山方舟、扣子和HiAgent三款平台产品,帮助企业构建好自身的AI能力中心,高效开发AI应用。其中,火山方舟发布了大模型记忆方案,并推出Prefix Cache和Session Cache API,降低延迟和成本。火山方舟还带来全域AI搜索,具备场景化搜索推荐一体化、企业私域信息整合等服务。

  技术架构面向AI全面转型。云原生是过去十年最重要的计算范式,而火山引擎认为,未来十年计算范式应从云原生转变为AI云原生。基于AI云原生的理念,火山引擎推出了新一代计算、网络、存储和和安全产品。在计算方面,火山引擎GPU实例,通过vRDMA网络,支持大规模并行计算和P/D分离推理架构,显著提升训练和推理效率,降低成本;在存储方面,新推出的EIC弹性极速缓存,能够实现GPU直连,使大模型推理时延降低至1/50、成本降低20%;在安全方面,火山将推出PCC私密云服务,构建大模型的可信应用体系。基于PCC,企业能够实现用户数据在云上推理的端到端加密,性能卓越。

  火山引擎持续致力于增强模型能力、完善模型服务,促进AI在各行各业的深度融合与创新应用,打造更强性能、更低价格、更易落地的豆包大模型,开启一个更加智能、高效、便捷的AI时代。

  AI融资动向:Databricks/智谱AI获本周AI融资市场估值前二,分获100亿美元/30亿人民币融资

  本周,Databricks/智谱AI获本周AI融资市场估值前二,分别获100亿美元/30亿元人民币融资。Databricks最初是美国加州大学伯克利AMP实验室的Spark大数据处理系统商业化项目,可以帮助企业以极快的速度分析其内部大数据,也凭此在获得了在硅谷立足之地。到2020年末,Databricks推出了其数据仓库产品——Databricks SQL,凭借着对AI数据的理解,Databricks先后打造了Apache Spark、DeltaLake、MLflow和OneLakehousePlatform,开设了多条产品线。目前,Databricks主要靠开发软件来提取、分析和构建人工智能应用程序,这些应用程序使用来自各种来源的复杂数据。商业模式方面,Databricks根据客户每秒消耗的计算资源量收费,并打造了自家独有的DBU作为衡量单位。从官网客户资源库可以看到,Databricks拥有移动通信公司AT&T、电子商品公司惠普、语言AI工具Grammarly等超过500多家客户群体。

  智谱AI或受益于清华系的科研底色,一直保持着较快的迭代速度。2020年底,智谱AI研发GLM预训练架构,2021年训练完成百亿参数模型GLM-10B,同年利用MoE架构成功训练出收敛的万亿稀疏模型。2023年,智谱AI推出了千亿基座的对话模型ChatGLM,并开源了单卡版模型ChatGLM-6B,使得研究者和个人开发者可以进行微调和部署。与此同时,智谱AI开放平台的价格从2023年年初到2024年下半年降低了5000倍。2024年以来,智谱AI更是先后发布对标Sora的视频生成模型CogVideoX,以及对标GPT-4o的端到端语音模型GLM-4-Voice和GLM-4-VideoCall。

  投资建议

  大模型或从快速扩张迈入淘汰赛阶段,字节明年有望迎来爆款应用。今年以来,视觉理解模型在GPT-4o、Google的Project Astra,以及iPhone16和一众旗舰机型上都加速落地。豆包视觉理解模型不仅能精准识别视觉内容,还可根据图像信息进行复杂的逻辑计算,完成分析图表、处理代码、解答学科问题等任务。豆包视觉理解模型千tokens输入价格仅为3厘,大模型的价格体系实现了从分至厘的跨越性调整,以更低成本让多模态交互降低用户的使用门槛,辅助完成一系列复杂的任务。人类接收的信息超过80%来自视觉,视觉理解将极大地拓展大模型的能力边界,同时也会降低人们与大模型交互的门槛,为大模型解锁更丰富的应用场景。同时,随着爆款应用的诞生,算力需求预计大幅增加。

  我们坚定持续看好AI软硬件机会,建议关注以AI为核心的龙头厂商科大讯飞(002230.SZ)、芯片技术有望创新突破的寒武纪(688256.SH)、高速通信连接器业务或显著受益于GB200放量的鼎通科技(688668.SH)、已与Rokid等多家知名AI眼镜厂商建立紧密合作的亿道信息(001314.SZ)等。

  风险提示

  1)AI底层技术迭代速度不及预期。2)政策监管及版权风险。3)AI应用落地效果不及预期。4)推荐公司业绩不及预期风险。