豆包大模型,原名“云雀”,是
字节跳动发布的大模型。
产品定位
更强模型,更低价格,更易落地
发布历程
2023年8月31日消息,首批大模型产品将陆续通过《生成式人工智能服务管理暂行办法》备案,可正式上线面向公众提供服务。字节的云雀大模型是首批上线的8家大模型之一。
2024年5月15日,字节跳动豆包大模型在火山引擎原动力大会上正式发布。
2024年5月,火山引擎官网更新了豆包大模型的定价详情,全面展示豆包通用模型不同版本、不同规格的价格信息。在模型推理定价大幅低于行业价格的基础上,豆包通用模型的 TPM(每分钟Tokens)、RPM(每分钟请求数)均达到国内最高标准。以豆包主力模型 pro-32k 为例,价格比行业低99%,TPM限额则高达同规格模型的2.7倍到8倍。5月21日消息,豆包大模型公布价格清单。 6月3日消息,豆包大模型推出桌面客户端,支持
Windows与
macOS。6月,荣耀与字节豆包大模型现已达成合作,豆包大模型家族中的语音识别、角色扮演等多款模型将助力荣耀构建移动办公领域垂直模型落地应用的基础能力。7月17日,三星电子面向中国市场发布新一代Galaxy Z系列产品。会上,三星电子与火山引擎官宣合作,为Galaxy Z Fold6、Galaxy Z Flip6手机的智能助手和AI视觉接入豆包大模型。截至7月,豆包大模型日均Tokens使用量已突破5000亿,平均每家企业客户日均Tokens使用量较5月15日模型发布时期增长22倍。8月9日,字节跳动旗下云服务平台火山引擎宣布,豆包大模型支持实时语音通话。截至12月18日,豆包大模型日均tokens使用量超过4万亿,发布7个月以来增长超过33倍。12月18日上午,“2024火山引擎FORCE原动力大会·冬”拉开帷幕,宣布豆包大模型全面升级,并且已经与八成主流汽车品牌合作,并接入到多家手机、PC等智能终端,覆盖终端设备约3亿台,来自智能终端的豆包大模型调用量在半年时间内增长100倍。
大模型家族
豆包通用模型pro
字节跳动自研LLM模型专业版,支持128K长文本,全系列可精调,具备更强的理解、生成、逻辑等综合能力,适配问答、总结、创作、分类等丰富场景。
豆包通用模型lite
字节跳动自研LLM模型轻量版,对比专业版提供更低token成本、更低延迟,为企业提供灵活经济的模型选择。
豆包·角色扮演模型
个性化的角色创作能力,更强的上下文感知和剧情推动能力,满足灵活的角色扮演需求。
豆包·语音合成模型
提供自然生动的语音合成能力,善于表达多种情绪,演绎多种场景。
豆包·声音复刻模型
5秒即可实现声音1:1克隆,对音色相似度和自然度进行高度还原,支持声音的跨语种迁移。
豆包·语音识别模型
更高的准确率及灵敏度,更低的语音识别延迟,支持多语种的正确识别。
豆包·文生图模型
更精准的文字理解能力,图文匹配更准确,画面效果更优美,擅长对中国文化元素的创作。
豆包·Function call模型
提供更加准确的功能识别和参数抽取能力,适合复杂工具调用的场景。
豆包·向量化模型
聚焦向量检索的使用场景,为LLM知识库提供核心理解能力,支持多语言。
场景示例
文字创作能力:具备文字创作、严格的指令遵从和庞大的知识储备能力,可应用在大纲生成、营销文案生成等内容创作场景。
生活常识、工作技能快速获取:集成了知识库,可高效地解决工作、生活等各类场景中的问题。
角色扮演能力:角色扮演能力符合设定且具备多轮记忆,可应用在社交陪伴、虚拟主播等人设对话场景。
专业的代码生成能力:具备专业的代码生成能力和知识储备,可高效地辅助代码生产场景。
强大的语言理解能力:深入理解文本信息之间的逻辑关系,从非结构化的文本信息中抽取准确的结构化信息。
进行思维、常识、科学推理:通过分析问题的前提条件和假设来推理出答案或解决方案,给出新的想法和见解。
价值优势
大使用量
打造更优的模型效果
模型家族
适配企业多种业务场景
更易落地
满足个性化业务需求
安全可信
企业可放心使用
豆包大模型应用
AI应用开发平台
无论用户是否有编程基础,都可以在扣子上快速搭建各类Bot,并发布到各类社交平台、通讯软件或部署到网站等其他渠道。
多功能AI助手
豆包是用户的多功能AI助手,为用户的生活、学习、工作提供帮助,搜索信息,答疑解惑,分析总结,提供灵感,辅助创作。
数据处理
2024年5月15日消息,豆包大模型日均处理1200亿Tokens文本,生成3000万张图片。
产品应用
2024年6月,小米旗下人工智能助手“小爱同学”与火山引擎达成合作,将通过豆包大模型为用户带来更完美的体验。
产品售价
豆包大模型的定价大幅低于行业价格:以豆包通用模型pro-32k版为例,模型推理输入价格仅为0.0008元/千Tokens。而市面上同规格模型的定价一般为0.12元/千Tokens,是豆包模型价格的150倍。
2024年5月21日消息,火山引擎官网更新了豆包大模型的定价详情,全面展示豆包通用模型不同版本、不同规格的价格信息。以豆包主力模型pro-32k为例,价格比行业低99%,TPM(每分钟Tokens)限额则高达同规格模型的2.7倍到8倍。
在按照Tokens实际使用量计算费用的“后付费”模式下,豆包通用模型-pro、豆包通用模型-lite的32k及以下窗口版本,模型限流为10K RPM(每分钟请求数)和800K TPM(以RPM和TPM其中之一到达上限为准)。国内其他主流模型的TPM限额大多在100K到300K之间,RPM则是在60到120区间,轻量级模型的RPM限额相对较高,但仅仅在300到500之间。