字节跳动发布豆包视觉理解模型,多场景应用有望落地
12月18日,字节跳动旗下火山引擎于2024FORCE原动力大会发布了豆包视觉理解模型。通过豆包视觉理解模型,用户可以同时输入文本和图像相关的问题。模型能够综合理解并给出准确的回答,大幅简化开发流程。豆包视觉理解模型主要有三大能力:(1)更强的内容识别能力,不仅可以识别出图像中的物体类别、形状等基本要素,还能理解物体之间的关系、空间布局以及场景的整体含义;(2)更强的理解和推理能力,不仅能识别图文信息,还能进行复杂的逻辑计算;(3)更细腻的视觉描述能力,可以基于图像信息,更细腻的描述图像呈现的内容,还能进行多种文体的创作。基于这些能力,豆包视觉理解模型在教育、旅游、电商等场景有着广泛的应用。例如在教育场景中,为学生优化作文、科普知识;在旅游场景中,帮助游客看外文菜单、讲解照片中建筑的背景知识;在电商营销场景中,帮助商家充分描述商品细节,高效发布种草广告等等。此外,豆包视觉理解的输入价格为每千tokens0.003元,比行业平均价格降低85%,有利于企业和开发者利于视觉理解模型,在更广泛的场景创造商业价值。
豆包大模型使用量大幅增长,模型家族再扩容,多模态能力不断提升
根据火山引擎数据,豆包大模型12月日均tokens使用量超过4万亿,较5月发布时期增长超过33倍,豆包大模型在信息处理、客服与销售、硬件助手、AI工具等场景的调用量也在快速增长。不断增加的调用量和多场景覆盖使豆包大模型越来越全面,并迎来全面升级,其中豆包通用模型pro完成新版本迭代,综合任务处理能力较5月份提升32%。除了视觉理解模型,火山引擎还发布了豆包音乐模型4.0、豆包文生图模型2.1以及veOmniverse+豆包3D生成模型,豆包视频生成模型将在2025年1月正式对外开放服务,明年春季,字节跳动还将发布具备更长视频生成能力的豆包视频生成模型1.5版。此外,火山引擎还推出全域AI搜索,通过场景化搜索推荐一体化服务、企业私域信息整合服务、联网问答服务,将企业的信息、业务和用户需求紧密结合,加速多行业智能化转型。
豆包大模型有望带动大模型产业快速发展,关注相关AI应用投资机会
我们认为,豆包大模型的持续迭代,将助力多场景AI应用加快落地及商业化空间打开。豆包多模态模型训练或带动对文字、图片以及3D素材语料需求,重点推荐锋尚文化,受益标的包括视觉中国、丝路视觉、天娱数科、中文在线、掌阅科技等;豆包音乐模型或加速AI音乐用户渗透,重点推荐盛天网络;豆包视频生成模型或加速影视内容生产和IP变现降本增效,重点推荐上海电影,受益标的包括捷成股份、华策影视、光线传媒等。豆包视觉理解模型或加快多场景AI应用商业化:AI+电商/营销,重点推荐汇量科技、值得买,受益标的包括引力传媒、因赛集团、遥望科技;AI+陪伴/玩具,重点推荐奥飞娱乐,受益标的包括汤姆猫;AI+教育出版,受益标的包括世纪天鸿、盛通股份、南方传媒。
风险提示:豆包大模型迭代速度不及预期;豆包AI应用商业化进程不及预期。
2、如遇本站资源无法下载、无法查看,请计时联系我们,站长将第一时间修复。