今天小编分享的科技经验:创业1年半,卖了94亿,欢迎阅读。
AIGC 领網域最大收购诞生了。
生成式 AI 的投资热还在蔓延,而这一旺盛需求也正在推动大公司对这一领網域初创企业的收购。
国内,美团斥资 20.65 亿收购光年之外。海外,数据存储管理公 Databricks 最近以 13 亿美元的高价收购了 OpenAI 竞争对手MosaicML 。
MosaicML 是一家总部位于美国旧金山的生成式 AI 初创公司,目前只有 60 余名员工。自 2021 年 10 月成立以来迄今已筹集 6400 万美元,其投资者包括 Frontline Ventures、DCVC、AME Cloud Ventures、Lux Capital、Atlas、Playground Global 和 Samsung Next 等。
其中,Samsung Next 是三星旗下的投资公司,专注于区块链和 AI 等领網域的投资,AME Cloud Ventures 是由雅虎联合创始人杨致远领导的风投基金,Frontline Ventures 是一家爱尔兰风投机构。
值得注意的是,MosaicML 的上一轮融资在 2023 年 1 月,当时估值为 2.22 亿美元,13 亿美元的收购价意味着不到一年时间其估值跃升了 6 倍。
收购方 Databricks 是一家数据存储和分析领網域的独角兽,帮助 AT&T、壳牌、Walgreens 等大型公司处理数据。2021 年,MosaicML 拿到摩根士丹利旗下 Counterpoint Global 领投 16 亿美元 H 轮融资,估值高达 380 亿美元。收购 MosaicML 的交易可能是这家独角兽公司向 IPO 之路迈出的又一步。通过它们的联合产品,Databricks 和 MosaicML 将能够使用自己的数据来训练和运行私人定制模型,从而保留对数据的控制权。
这并不是生成式 AI 领網域今年的唯一一起收购。3 月,Stable Diffusion 背后的 Stability AI 收购了 AI 照片编辑应用 ClipDrop 背后的开发商 Init ML,希望可以将自身的模型与应用场景更紧密的结合起来。5 月,Databricks 竞争对手 Snowflake 宣布收购生成式 AI 搜索初创公司 Neeva,意在将生成式 AI 的专业知识构建到数据基础设施产品中。
企业级生成式 AI
生成式 AI 算是今年为数不多的投资热点。1 月,微软向 OpenAI 投资了 100 亿美元。3 月,总部位于旧金山的Adept AI 在 B 轮融资中筹集了 3.5 亿美元,投后估值至少为 10 亿美元。5 月,Anthropic(人工智能助手 Claude)筹集了 4.5 亿美元的 C 轮融资,估值达到 50 亿美元。
市场分析公司 PitchBook Data 的数据显示,到今年年底,全球生成式 AI 市场的支出预计将达到 426 亿美元,并以 32% 的复合年增长率增长,到 2026 年将达到 981 亿美元。投向生成式 AI 初创公司的风险投资也从 2022 年全年的 48 亿美元增至 2023 年前 5 个月的 127 亿美元。
生成式 AI 市场急剧扩张,为 MosaicML 这样的初创公司创造了机会。使用大语言系统等工具来开发和训练公司自己的 AI 系统正在成为一些大公司的流行策略选择,MosaicML 这样的公司可以提供和 OpenAI 类似的人工智能模型,但成本更低,并可以根据公司的数据进行定制。
上个月,法国生成式 AI 初创公司 Mistral AI 获得了创纪录的 1.13 亿美元种子轮资金投资。这笔融资和 Databricks 对 MosaicML 的收购都属于企业级生成式 AI 领網域的推动事件。
MosaicML 的两位创始人都曾在英特尔任职。
Naveen Rao 曾在杜克大学就读计算机专业,后又拿下布朗大学神经科学的博士学位,研究人工智能神经网络的学习和开发。2014 年创立了深度学习平台 Nervana Systems。成立两年后,Nervana 即被英特尔以约 4.08 亿美元的价格收购,他自己也加入英特尔担任 AI 产品组的副总裁兼总经理。但 Nervana 后被英特尔抛弃,Naveen Rao 遂在 2021 年离职再创业。
另一位创始人兼 CTO Hanlin Tang 是哈佛大学博士,研究人类视觉循环神经网络。他领导过英特尔实验室的人工智能实验室,重点研究领網域为应用深度强化学习、自然语言处理和扩展大型模型。他是在英特尔收购 Nervana Systems 后加入的。更早之前,他曾在国防部、兰德公司工作,有着数据安全领網域的经验。
MosaicML 的首席科学家 Jonathan Frankle 是 MIT 计算机科学与人工智能实验室的博士后研究员,也是哈佛 Kempner 研究所的附属教员。他的研究方向是神经网络的学习动力学和训练算法,旨在提高大型语言模型(LLM)的效率同时降低训练成本。他的研究方向也正是 MosaicML 的竞争力所在。
大语言模型的开源路线
MosaicML 提供了一个生成式 AI 平台和一套完整的解决方案,包括 MPT 基础模型系列、MosaicML 推理和 MosaicML 训练,让用户能够在自己的数据和安全环境中训练和部署生成式 AI 模型。
其中,MPT 基础模型系列是 MosaicML 提供的一系列开源、商业可用的大型语言模型,它们可以作为用户构建自己的生成式 AI 应用的基础。MPT 基础模型系列包括 MPT-7B 和 MPT-30B 两个模型,分别有 70 亿和 300 亿个参数。
和 OpenAI 的大语言模型相比,MosaicML 的训练成本更低。MosaicML 首席执行官兼联合创始人 Naveen Rao 曾在采访中表示,MPT-30B 的训练成本为 70 万美元,远低于训练 GPT-3 所需的数千万美元。
当然,这不是它唯一的优点。
今年 5 月,MosaicML 推出面向企业的 MosaicML 推理。MosaicML 首席执行官 Naveen Rao 曾表示,MosaicML 对企业客户的价值主张是双重的:保持客户数据的私密性和降低成本。
当前许多企业倾向于定制人工智能模型,这些模型依赖于编码、法律工作、医疗保健等领網域的特定训练集,其中许多行业都对本领網域数据有着严格的合规和控制。企业客户需要能够高效执行特定任务的模型,这正是 MosaicML 相对于 OpenAI 这类通用模型所具备的优势。
一些初创公司已经在使用 MosaicML 的模型和工具来构建自然语言前端和搜索系统。MosaicML 允许企业使用公司的模型架构根据自己的数据训练模型,然后通过其推理 API 部署模型。" 如果客户训练了一个模型,他们可以放心,他们拥有该模型的所有迭代,该模型就是他们的。我们对此不拥有所有权。"Naveen Rao 表示。
使用 MosaicML 的新推理产品,企业客户可以部署用于文本完成和文本嵌入的 AI 模型,其成本比使用 OpenAI 的 LLM 低 4 倍,而影像生成的成本比使用 OpenAI 的 DALL-E 2 便宜 15 倍。
除了让人工智能技术变得更容易使用之外,MosaicML 还专注于提高数据质量,以实现更好的模型性能。它正开发工具来帮助用户在预训练过程中分层输入特定领網域的数据,这确保了多样化和高质量的数据组合,对于构建有效的人工智能模型至关重要。
作为开源模型的可用性以及完整的模型调整和部署服务,或使这家初创公司能够挑战 OpenAI 在大语言模型技术市场的主导地位。
" 我们希望让尽可能多的人了解和使用这项技术,这就是我们的目标。这并不是排他性的。这不是精英主义。"Naveen Rao 表示。