2024 年 12 月的全球 ai 大事记。
文丨贺乾明编辑丨程曼祺
2024 年 12 月的 ai 月报,你会看到:
openai、google 发布新模型,中国的 deepseek 也抢到了风头
gpt-5 训练遇阻的更多细节
强化学习的重要性持续提升
至少有三个团队推出了世界模型
google 霸占大模型竞技场前三
中国公司在开源社区存在感大涨
博通帮大公司自研 ai 芯片,市值破万亿美元
openai 正式启动转型营利公司
20+ ai 公司获 5000 万美元以上投资,有 2 家中国公司
大模型的幻觉并不是一无是处
以下是我们第 2 期 ai 月报,欢迎大家在留言区补充我们没有提到的重要进展。
技术|10 亿美元没训出 gpt-5,新版 scaling laws 初步证明可行,多款世界模型亮相
gpt-5 训练遇阻的更多细节
openai 训练 gpt-5(代号 orion)遇阻,是大模型能力提升放缓的重要证据。12 月,多家媒体提供了更多的细节:
2023 年 4 月推出 gpt-4 后,openai 一直在开发 gpt-5,已经持续 20 个月。openai 看到过乐观信号:24 年 4 月,openai ceo 山姆·阿尔特曼(sam altman)在斯坦福大学的演讲中说,gpt-5 将比当时的模型聪明得多;5 月,他在公司内部也发表了类似的看法;openai 最大的投资方微软预计年中能看到 gpt-5。
阿尔特曼当时在公司内部说,虽然(应该是第二遍训练)gpt-5 的训练过程只完成了 20%,但它回答问题、完成任务等能力已经与 gpt-4 相当。但从那之后,gpt-5 的性能提升放缓,最后并没有超出 gpt-4 太多。而 openai 一直希望 gpt-5 能到博士生水平。
到 12 月,openai 至少从头训练了两遍 gpt-5,都没有达到预期。openai 内部和行业人士估计,openai 训练一遍 gpt-5,算力成本就有 5 亿美元。
公开优质数据不够了,用人和 o1 来凑
openai 训练 gpt-5 的麻烦是缺少多样化、高质量的数据。此前,openai 几乎抓了互联网上所有公开的优质数据,并尽可能购买大量版权数据,还是不够。
openai 的解决办法是,用大模型生成数据训练模型。这种方法存在问题,大模型本身就是它训练数据的压缩,所以 ai 生成的数据质量通常较差。openai 的科学家们认为,他们的新模型 o1 可以避免这些问题。
openai 也在雇佣一批人写数据。他们不再是在经济落后区域做数据标注或审查内容的工人,而是软件工程师、数学家、物理学家等。openai 让他们编写复杂题目、给出答案,把最高效的解题过程写下来。一部分研究者还认为,代码数据能帮大模型解决尚未遇到的问题。
但这个过程比较缓慢。假设 1 人 1 天写 5000 字,1000 人要 200 天才能生产 100 亿字的数据,而 gpt-4 训练的数据量超过 10 万亿字。
此外,还有另一个数据证明,更多人工能提升大模型能力。12 月,ai 软件基础设施公司 langchain 发布年度报告,用他们工具的大模型应用开发者,拿人类反馈提升大模型能力的次数增长了 18 倍。
一位中国云计算平台企业 ai 应用负责人告诉我们,基于人类反馈的强化学习,现在已经成为他们为大型客户提供 ai 服务的标配。
强化学习重要性再提升,新 scaling laws 初步证明可行
2024 年 9 月,openai 发布 o1 模型,称模型花更多时间、更多算力回答问题(test-time compute),能力会持续提升。那时,大模型训练有了陷入瓶颈的迹象——增加数据、算力,扩大模型参数规模,但性能提升缓慢。
3 个月后,openai 正式放出 o1,用实际能力证明它解决数学题或编程问题时,的确比 gpt-4o 等模型更强。比如它几乎每一次都能判断 9.9 比 9.11 大,gpt-4o 现在不行。
12 月亮相的新模型 o3,证明 openai 从 o1 中看到的规律——回答问题时花更多算力的 o3,在顶尖编程竞赛 codeforces 中,得分比 o1 提升 44%,超过 openai 首席科学家,排进人类前 200;在前沿数学测试基准 epochai 中解决 25.2% 的问题,其他模型都没有超过 2%。
o3 在顶尖编程竞赛 codeforces 测试中的表现。
“当山姆和我们的研究人员说 agi 即将到来,不是为了推销每月订阅费达到 2000 美元的服务,也不是诱骗投资。”openai 的研究员约翰·霍尔曼(john hallman)说。
但 o3 的 agi 能力评测得分可能虚高。openai 称,o3 在基准测试 arc-agi 中得分达到 87.5%,是 o1 的三倍。但根据 arc-agi 官方网站,openai 提前用了 75% 的 arc-agi 的公开数据集训练过 o3。研究者 knight lee 说,其他 ai 模型没有做过这件事。
此外,o3 成本高昂,高性能模式算一次上千美元。而且和 o1 一样,o3 在数学、编程等理科场景表现突出,在处理文本方面大概率跟 gpt-4o 没太大差别。
openai 还公布了一种针对 o 系列模型的微调方法,称为 rft(reinforcement fine-tuning),开发者能用强化学习的方法提高 o 系列模型解决特定任务的能力。训练 o 系列模型时,openai 就用了强化学习。他们最新的动作表明,强化学习在大模型领域会越来越重要。
降成本、做 agent,模型应用的迭代趋势
12 月 20 日,google 推出类似 o1 的模型 gemini 2.0 flash thinking,表示他们的模型回答问题更快。此前几天,google 也推出了新款基础模型 gemini 2.0 flash。
google 这两款模型,指向大模型更广泛应用时的迭代方向:降低成本、提高 agent 能力。
正如 meta ceo 马克·扎克伯格(mark zuckerberg)所说,“即使大模型不再改进,在现有技术上开发消费和企业产品,也有很大的空间。”
微软早就看准这个方向,这个月推出第四代 phi 大模型,只有 140 亿参数,但数学题推理等任务上要强过 google 的 gemini pro 1.5 等参数更大、算力消耗更多的模型。
google 推出 gemini 2.0 flash 时,还强调它专为 “agent” 开发。与其他大模型不同,google 训练模型时,就尝试提升模型调用 google 搜索、代码执行和第三方定义函数等工具的能力。推出模型时,google 也发布了用于科研、编程等的多款 agent 应用。
我们在上期月报中提到,agent 是当前大模型行业的新趋势,从 google 到微软等大公司,openai 到 anthropic 等明星 ai 创业公司,以及新出现的创业公司都在探索这个方向。
硅谷孵化器 yc 的合伙人们认为,agent 会是新时代的 saas,市场空间要比当前的 saas 大 10 倍。
世界模型进展:李飞飞、deepmind 和 cmu 新做了什么
openai 终于发布视频生成模型 sora,底层技术没有太大的更新,决定了它一发布就陷入包围圈。10 个月过去,在 openai 带队训练 sora 的研究者之一蒂姆·布鲁克斯(tim brooks)都被 google 挖走了。
sora 放开后不久,google 就推出了新的视频生成模型 veo 2,称它可以生成分辨率高达 4k、长度超过 2 分钟的视频,都超过 sora。不过 google veo 2 还是期货,就像当时的 sora。
openai 在这一方向上面临的压力不止于此。他们在 2 月介绍 sora,说沿着视频生成模型扩展,是开发物理世界模拟器的一条有前途的路径。
现在已经有了多个团队取得了成果,跟 openai 没太大关系。以色列创业公司 decart 用大模型生成了名叫 oasis 的开放世界游戏,就像 “我的世界” 那样,已经吸引上百万用户。这个月,还有三个团队发布新成果:
deepmind 推出 genie 2 模型,宣称可以生成不同视角的、连贯的虚拟世界,大多数情况持续 10~20 秒,最长可以达到一分钟。比如用户输入 “森林中的可爱人形机器人”,模型可以生成一个包含机器人角色、可以探索的动态场景。用户可以用键盘或鼠标操作角色在场景中行动、跳跃、游泳等。
知名 ai 科学家李飞飞创办的公司 world labs 推出首个项目,根据一张 ai 生成的图片,加上提示词,就可以生成类似 3d 游戏中的场景。他们有 genie 2 模型那种可以交互的能力,并强调可以修改场景。
cmu、英伟达、北大等 19 个机构的团队发布 genesis,称其是一种新的开源计算机模拟系统,机器人可以在其中模拟、学习要在现实中执行的任务,比如捡东西、走路、操作设备等,速度比现实世界快 43 万倍。他们展示了机器人迅速在 genesis 环境中学会后空翻,用到机器狗上的情况。他们在研究生成 “4d 动态世界” 的能力,然后利用 genesis 的能力创建世界。
world labs 推出的 ai 系统 demo。
deepmind 继续更新天气预报 ai
deepmind 没有把所有的团队都押注在大模型上,还在持续研究怎么用 ai 研究量子计算、生物、核聚变、天气预报等。
这个月,deepmind 发布新款的天气预报模型 gencast,用 40 年的天气数据训练,宣称只用一块 tpu ,就能在 8 分钟内生成 15 天的天气预报,现有的天气预报系统用超级计算机需要数个小时,准确率还不高。
差别在于,传统的方法是计算复杂的物理公式,而 deepmind 的方法是从海量数据中寻找规律。deepmind 在《自然》杂志发表的论文中写道,他们的 ai 预测飓风的前进路径的准确度,始终强过欧洲天气预报中心,会有助于减少灾害造成的损失。
竞争|google 支棱起来了,中国在开源社区存在感大增
google 霸榜大模型竞技场
12 月,除了发布两款 gemini 2.0 flash 模型,google 还上线了一个名叫 “gemini -exp-1206” 的基础模型,它们一起把 openai 的模型挤出 chatbot arena 前三。
相比各个公司发布模型时强调的 mmlu、gpqa 等基础测试,chatbot arena 让用户对匿名的大模型回答评分,更偏向用户实际感受。
2023 年 4 月,加州大学伯克利分校的两名研究者推出 chatbot arena 以来,openai 的模型长期在榜首。如果被挤下来,openai 也会更新模型冲上去。
过去这个月,openai 推出了正式版 o1,但在聊天机器人这个大模型最主流的应用场景中,它的评分还比不上 gpt-4o,以及 google 发布的同类模型 gemini 2.0 flash thinking。
9 月,google 推出更新版的 notebooklm,用户可以根据上传的文档等资料,与大模型自由问答,甚至生成播客内容,引发了好评。再加上这个月的进展,google 终于有了一种支棱起来的感觉。半年前,它还因为自己的大模型建议人吃石头、在披萨上涂胶水受到嘲笑。
据媒体报道,2024 年 google ceo 桑达尔·皮查伊用了多种方法提升员工的战斗力:
与员工交流时,经常提到两位创始人,提醒创业艰难。两位创始人目前在 google 活跃,参与 ai 研究;
把 ai 团队正在研发中的大模型技术放开给一些员工,让他们提前开发合适的产品。两年前,google 还会担心这些技术会带来负面影响,迟迟不愿发布;
亲自参加 ai 研发团队的会议,推动员工快速推出类似 notebooklm 这样的产品等,简化公司组织架构,比如裁掉 10% 的中层。
google 的 2025 年战略会议上,皮查伊提出新目标:确立 gemini 的领导地位,重点是扩大 gemini 的用户规模——这也是 openai 关注的焦点。
hugging face ceo:重视中国的开源大模型
12 月最后一天,deepseek 的新模型 deepseek-v3 在 chatbot arena 上的评分上线,仅落后于 openai、google 近 3 个月发布的新模型,在开源模型中排名第一。
deepseek 是中国量化私募基金公司孵化、支持的 ai 公司。相关论文显示,他们只用 578 万美元——这是 meta 训练 llama 3.1 不到 1/10 的 gpu 资源——就取得了更好的效果,多个基准评测得分逼近大模型 gpt-4o、claude 3.5 sonnet,迅速走红。
“资源受限条件下令人印象深刻的研究和工程工作。”openai 创始成员、特斯拉前自动驾驶负责人安德烈·卡帕斯 (andrej karpathy) 说。
就算 deepseek 不推出 deepseek-v3,中国公司在大模型开源社区中的存在感也明显提升。在 chatbot arena 中,deepseek 开源的上一代模型、阿里开源的 qwen2.5-plus -1127 的得分都超过了 meta 发布 的 4050 亿参数 llama 3.1。
“因为在 ai 开源中取得了领先地位,中国将在 2025 年开始引领 ai 竞争。”ai 社区 hugging face ceo 克莱门特·德兰格 (clement delangue) 预测。他 12 月在一档播客节目中说,要警惕中国的开源大模型,“不应该有任何一个或两个国家的 ai 模型比其他国家强大得多”。
但 hugging face 的聊天机器人应用 huggingchat,默认模型就是阿里的 qwen2.5-72b-instruct。
供应链|新的大模型数据源出现,第三家万亿美元市值芯片公司诞生
如何用 o1 生成的数据训练模型
用 openai 等公司的模型生成数据,拿去训练大模型,在大模型行业中已经是公开秘密。
有媒体报道,截至 2024 年 3 月,字节跳动还通过 tiktok 找微软调用 openai 的模型,每个月花费 2000 万美元。比如用户问 deepseek 最新的模型自己是谁,它会说自己是 openai 开发的大模型。
随着 openai 发布 o1 模型,许多公司也换了基础设施,改用它生成数据训练模型。
虽然 openai 在公开版本中隐藏 o1 的思维链(思考如何解题的过程),这并没有难倒其他公司的开发者:他们拿着 o1 吐出来的答案,让其他大模型预测 o1 回答问题的原始思维链,然后再拿这些数据训练模型。
因为 openai 也在用 o1 等模型生成数据训练模型,这意味着其他公司与 openai 的差距,或许比之前更小了一些。
大公司自研芯片,推动博通市值突破万亿美元
12 月,芯片公司博通公布 2024 年的 ai 收入,增长 220% 达到 122 亿美元。在这个消息的推动下,博通的股价一天上涨超过 24%,成为芯片行业第三家市值突破万亿美元的公司。之前两家分别是英伟达和台积电。
博通市值上涨的推力和英伟达一样,都是大型科技公司大力投资 ai 算力中心。区别在于,英伟达出售 gpu,博通出售自研 ai 芯片方案,正帮助 google、meta、字节跳动、苹果、openai 等公司开发 ai 芯片,以摆脱对英伟达的依赖。字节跳动曾否认与博通合作。
博通 ceo 陈福阳(hock tan)接受媒体采访说,他们在硅谷的客户正在匆忙地制定未来 3、5 年的 ai 基础设施投资计划,到 2027 年会有客户建设百万 ai 芯片的集群。
英伟达迅速迭代,跟着 o 系列模型推出 g300
博通 2024 年的市值涨幅还是比不上英伟达,它涨了 110%, 英伟达是 171%。
12 月,英伟达也没有停下来。根据 semianalysis 报告,随着 openai 在 3 个月内接连发布 o1、o3 推理模型,英伟达跟着推出 gpu b300,适应最新的风向。此时距离英伟达推出 b200 不过半年。
与 b200 相比,b300 的算力、显存分别提高 50%,功率也上涨到 1.2 kw,消耗的更多的电力,可以减少 o1 这类推理模型的延迟和计算成本,也能支持更长的思维链。目前,许多公司已经把原本采购的 b200 订单换成 b300。
还有许多公司表现出对英伟达 gpu 有旺盛需求:
马斯克旗下 xai 宣布,很快就要把原本 122 天建成的 10 万张 h100 算力中心拓展到 20 万张。马斯克说,未来会增加到 100 万张。
媒体报道,字节创始人张一鸣与东南亚等地区的数据中心运营商谈判,以便明年投入 70 亿美元租用英伟达 blackwell 系列 gpu 的算力。
媒体报道,google、meta 各自订购了超过 40 万个预计 2025 年交付的 gb200 芯片,包括服务器在内的投入可能超过 100 亿美元。
应用|大模型加速嵌入原有的行业生态
openai 的 12 场发布活动,想尽办法让更多人用 chatgpt
借着 o1 模型和 sora 正式发布,openai 把 chatgpt 订阅费用推高到了每月 200 美元,他们还打算用 o3 推高到每月数千美元,在 chatgpt 中加广告。
openai 在 12 月的发布活动,大都是围绕 chatgpt 这个周活用户突破 3 亿的超级应用,给它增加新功能、降低它的使用门槛或者吸引更多用户花更多钱买会员:
第一天,正式推出 o1。每月付 20 美元的 chatgpt 用户,可以限量使用新模型 o1;如果每月付 200 美元,可以 “无限” 使用 o1 和 gpt-4o,还能用一个特供版的 o1,能调更多算力解决复杂问题。
第三天,正式推出 sora。每月付 20 美元的 chatgpt 用户,每个月只能生成 50 个分辨率 480p 或数量更少的 720p 视频;每月付 200 美元的用户,用量扩大 10 倍,可以生成 1080p 分辨率、20 秒的视频,还能去掉视频水印。
第四天,正式推出 chatgpt 的 canvas 功能。它可以编辑审阅文档,批注修改意见,也可以帮助程序员写代码、找 bug 等。所有的 chatgpt 用户(包括免费用户)都可以使用,差别在于付费的用户可以调用更多次数的 gpt-4o 或 o1 模型。
第五天,宣布把 chatgpt 集成到苹果的系统中。苹果用户可以通过 apple intelligence 功能直接调用 chatgpt。这一合作在 2024 年 6 月的 wwdc 上就已经宣布。
第六天,升级 chatgpt 的语音功能。部分地区的 chatgpt 的付费用户可以使用,用户将手机摄像头对准物体或人,chatgpt 可以近乎实时地给出反馈。chatgpt 还可以读取屏幕上的内容,实时与用户交互。
第七天,推出 chatgpt 的 projects 功能。它可以帮用户整理与 chatgpt 交互情况,比如其中涉及的文件和数据等,目前只给付费的用户使用。此前 openai 的竞争对手 anthropic 已经在 claude 中上线了类似的功能。
第八天,拓展 chatgpt 的搜索功能。免费的用户也可以使用,并提升了响应速度。
第十天,把 chatgpt 接入电话网络和 whatsapp。美国用户拨打 1-800-242-8478 可以与 chatgpt 通话,每个用户有 15 分钟免费通话时间。全球用户可以通过 whatsapp 使用这一号码与 chatgpt 交流(仅限文字)。
第十一天,把电脑版 chatgpt 集成到编程等生产力工具中。只有付费用户可以使用。chatgpt 与 warp(文件共享应用)、xcode(编程应用)、notion(笔记应用)等打通。这并不是一个全新功能,我们在 11 月的 ai 月报中就介绍过。
发布活动之外,openai 如何拓展企业市场
举办 12 场发布活动之前,openai 在官网发布一篇文章,介绍他们拓展企业客户时的合作伙伴,让外界有机会更进一步了解其如何运作。和微软一样,这些公司也帮 openai 销售模型的 api、chatgpt enterprise、chatgpt edu、chatgpt team 等企业服务,只是环节不同:
微软,云计算计算设施,在美国、澳大利亚、加拿大等 12 个国家处理数据
cloudflare,内容分发网络,在距离用户最近的数据中心处理数据
snowflake,数据仓库,在美国处理数据
taskus,客户支持、内容审核、gpts 审核,在菲律宾处理数据
intercom,客户支持,在美国处理数据
埃森哲,客户支持,在加拿大、菲律宾处理数据
fivetran,etl(数据集成)供应商,在美国处理数据,它只负责 openai 的 assistants api 业务
confluent,基础设施管理,在美国处理数据
cinder technologies,内容审核平台、gpts 审核平台,在美国处理数据
workos,跨域身份管理,在美国处理数据
okta,用户身份验证服务(via auth0),在美国处理数据
除了这些合作商,openai 还与美国国防创业公司 anduril 和 palantir 谈判,要一起组建财团,竞标国防合同。
salesforce vs. 微软,创业公司也想做 notebooklm
不论是吸引更多个人消费者用 chatgpt,还是开拓企业客户,openai 的方法有一个共性:嵌入到已有的行业生态中去。这个月,我们也看到在已有的行业生态中占据优势地位的公司采取积极行动。
salesforce 将招聘 2000 人卖 ai 软件。其 ceo 马克·贝尼奥夫 (marc benioff) 一个月前的计划是招 1000 人,现在翻了一倍。他说,salesforce 能够开发和操作 ai agent(智能体)的技术将在 2 月上线。过去一年,salesforce 积极向大模型应用转型,市值增加了 28% 到 3100 多亿美元。
贝尼奥夫还顺口评价了一下微软,在他们网站上,“你是找不到(ai 软件)的”。在企业服务市场上,他们是竞争对手。
微软在这个月也提出了一个推广大模型应用的新口号:“如果你使用它们(ai),你就不需要雇那么多人了。” 他们也在用自研的大模型和第三方大模型驱动核心产品 365 copilot,目标是减少对 openai 的依赖,降低成本。
还有创业公司与这些大公司们竞争,比如 ai 语音公司 elevenlabs 推出对标 notebooklm 的播客生成功能。目前 google 的 notebooklm 只能生成英文播客,而 elevenlabs 宣称支持 32 种语言。上个月,这家 ai 公司以 30 亿美元的估值融资 2 亿美元。
(还有更多新公司的应用尝试,我们会在下文的融资部分重点介绍。)
ai 硬件探索,大公司们存在感变强
苹果机器学习和 ai 策略高级副总裁约翰·吉安南德雷(john giannandrea)本月接受采访,谈到苹果开发 apple intelligence 的策略:首要目标是改进产品体验,就像此前把人脸识别技术用来解锁 iphone 中那样。他说,苹果对 agi 不感兴趣,认为 agi 不切实际,甚至有些 “荒谬”。
12 月,行业对 ai 硬件的探索还在继续。靠着与雷朋眼镜合作推出 ray-ban ai 眼镜的 meta,计划 2025 年在这款产品上增加屏幕,用于显示 meta ai 助手的通知或回复。
这样与 ai 的交互形式,在此前的 ai 硬件探索中都已经存在。比如 2024 年初正式发售的 ai pin 想用激光投影当屏幕,rabbit r1 干脆是造了个带屏幕的硬件。但它们都没有说服用户,为什么一定要再买个新产品,而不是用手机。meta 用 ray-ban ai 眼镜验证了市场需求,现在希望更进一步。
ray-ban ai 眼镜的火热,也刺激了中国 ai 眼镜市场。我们在 12 月发布的一篇 ai 眼镜报道中写道,2025 年会是 ai 眼镜元年,会有近百个品牌发布产品,掀起 “百镜大战”。
ai 硬件的探索也不只在消费者市场。临近月底,有媒体报道,openai 重新组建了四年前解散的机器人软件团队,考虑开发一款人形机器人。在此之前,openai 已经投资 figure、1x 两家人形机器人公司和研发机器人 ai 模型的 physical intelligence。
投融资|21 家单笔融资超过 5000 万美元的 ai 公司
openai 在 12 月正式启动转型成一家营利公司的计划,把原来监督、控制 openai 的非营利机构变成一个股东,理由是方便融资,研发 “造福人类的 agi”。
之前,他们在官网上公布创始团队早期与马斯克沟通的邮件,论证转型合理。加上马斯克公布的邮件,我们整理、翻译了 75 封 openai 内部邮件,你可以在这里看到。
许多公司的融资消息上月就已经被媒体报道。比如马斯克旗下的 xai 融资 60 亿美元;ai 搜索产品 perplexity 以 90 亿美元估值筹到 5 亿美元;ai 编程应用 cursor 拿到 1 亿美元融资等,这个月不再重复提到。
在本月获得大额融资的 ai 公司中,大多数都在 chatgpt 上线前已经成立,尤其是应用公司,它们长期针对一个行业提供 ai 解决方案。
模型:不只有 transformer 架构,不局限于 gpt
智谱 ai 融到 30 亿元,估值达到 200 亿元人民币。智谱称,2024 年公司的商业化收入增长超过 100%,新资金将会用于研发解决复杂推理、多模态任务的基础大模型。
阶跃星辰完成一轮融资,总融资额达数亿美元。主要用于基础模型研发,提高模型多模态和复杂推理能力——跟智谱一样。但阶跃星辰也想扩大 c 端产品的用户规模,与月之暗面接近。
sandboxaq 融资超过 3 亿美元,估值超过 56 亿美元。sandboxaq 之前是 google 母公司 alphabet 旗下的公司,2022 年分拆独立。它专门为生物、医学、化学、材料等领域开发 “大型定量模型”。他们用传感器中获得数据或者根据方程生成的数据训练模型,宣称精确到 “一个分子的一亿次微小的改变”。他们计划未来不只用 gpu 跑模型,也会引入量子芯片。
liquid ai 融资 2.5 亿美元,估值超过 20 亿美元。它成立于 2023 年,开发一种从蠕虫大脑结构发现的 “液态神经网络”(lnn)架构,宣称与 transformer 架构相比,新架构需要的数据和算力都更少。liquid ai 说,他们正在把技术用到消费电子和金融服务行业。
爱诗科技(pixverse)融资 3 亿元人民币,它成立于 2023 年,开发对标 sora 的文生视频模型。新一轮的投资方主要是蚂蚁集团、北京市人工智能产业投资基金、国科投资及光源资本。
12 月还有至少 9 家 ai 模型公司获得超 1000 万美元融资,中国开发多模态大模型的智象未来、开发端侧大模型的面壁智能、开发具身智能模型的穹彻智能等都宣布获得数亿元人民币融资。
基础设施:芯片公司的上下游多,竞争对手少
databricks 计划单轮融资 100 亿美元,估值达到 620 亿美元。它成立于 2013 年,主要业务是为企业提供数据和 ai 云服务。目前 databricks 已融到 86 亿美元。databricks 称,他们计划将这笔资金用于 ai 产品研发、收购公司以及国际扩张。databricks 预计 2024 年四季度收入将突破 30 亿美元,自由现金流转正。
tenstorrent 融资 7 亿美元,估值达到 26 亿美元。它成立于 2016 年,基于 risc-v 架构开发 ai 芯片,是市场上少有的挑战英伟达的创业公司。创始人是半导体先驱吉姆·凯勒 (jim keller) ,此前在苹果、特斯拉、amd 工作,给这些公司的芯片业务打下基础。
nebius 融资 7 亿美元。它前身是俄罗斯搜索引擎公司 yandex,2024 年转型为 ai 云服务供应商,利用专有的云软件架构和内部设计的硬件,为 ai 开发者提供算力、存储和托管服务。
crusoe 融资 6 亿美元。它成立于 2018 年,之前主要用被浪费的天然气为挖矿的数据中心供电,现在转型给 ai 算力中心供电,已经与甲骨文、微软和 openai 建立合作。
vultr 融资 3.33 亿美元,估值 35 亿美元。它成立于 2014 年,可以按小时出租 gpu 算力。这轮投资方主要是 amd。amd 也开始像英伟达那样扶持一批 ai 云公司。
nscale 融资 1.55 亿美元。它成立于 2024 年,主要用 amd 的芯片建设 gpu 云服务,计划未来三年部署 3 万块 gpu。
ayar labs 融资 1.55 亿美元,估值 10 亿美元。它成立于 2015 年,开发利用光传输数据的方案,这轮的投资方是 amd、英特尔、英伟达三家芯片公司。
axiado 融资 6000 万美元。它成立于 2017 年,开发一个名为 tcu 的安全芯片,用于防范针对云数据中心、5g 网络和关键基础设施的网络攻击。
12 月,还有两家 ai 基础设施公司获得超过 1000 万美元融资。一家是 stainless,把 openai 、 anthropic 和 meta 等公司模型的 api 自动生成 sdk,简化应用程序的开发速度;另一个家是 cake,把开源 ai 技术整合成一个可以投入使用的工具。
应用:从垃圾回收到会计,把 ai 嵌入各行各业中
zest ai 融资 2 亿美元。它成立于 2009 年,原本叫 zest finance,主要为金融机构提供大数据和机器学习信用评分方案,2019 年改名为 zest ai。之前百度、京东都投资过它,在自家业务中引入其技术。
tractian 融资 1.2 亿美元。它成立于 2019 年,利用传感器、边缘计算硬件和 ai 模型监控工业设备,预测可能的故障,减少停机时间。
aiwyn 融资 1.13 亿美元。它成立于 2019 年,用 ai 技术把会计的工作自动化,主要的客户是注册会计师事务所。
cleerly 融资 1.06 亿美元。它成立于 2017 年,最新的动向是用 ai 技术分析心脏 ct 影像识别早期冠状动脉疾病等。
precision neuroscience 融资 1.02 亿美元。它成立于 2021 年,主要开发 “第 7 层皮层接口”(layer 7 cortical interface),一种不深入脑组织就能捕捉神经信号并将其转化为数字指令的产品。
amp robotics 融资 9100 万美元。它成立于 2014 年,开发了机器人分拣系统,用 ai 识别、分类垃圾和回收物。
speak 融资 7800 万美元,估值 10 亿美元。它成立于 2016 年,主要用 ai 帮人学习新语言。它不像多邻国那样把学习过程变得游戏化,而是强调培养用户真实场景中的口语能力。speak 宣称,目前公司收入达到千万美元级别。
sublime security 融资 6000 万美元。它成立于 2019 年,聚焦电子邮件安全防御场景,用 ai 技术检测和防御网络钓鱼、恶意软件等电子邮件攻击,客户有 spotify、reddit 等。
anybotics 融资 6000 万美元。它成立于 2016 年,是苏黎世联邦理工学院(eth zurich)孵化出来的公司,主要开发用于工业巡检的机器狗 anymal。
9fin 融资 5000 万美元。它成立于 2016 年,原本用 ai 分析债务资本市场情报数据,现在用大模型技术搜索最新的数据。
12 月,还有 24 家 ai 公司拿到了超过千万美元的融资,他们的特征与上述公司类似:chatgpt 火热之前就已经成立,把 ai 技术用到特定行业的场景中,比如客服、物流、律师、会计、运维、市场调研、制药等。
最后|科学家欢迎大模型的幻觉
大模型一直存在 “幻觉” 问题,即一本正经地胡说八道,给出不符合事实的信息。能不能避免这些错误,也成为衡量一家公司大模型好坏的指标。google 就因为大模型给出的回复不对劲,市值一度下挫千亿美元。
这个月,aws 推出了一个工具对抗大模型幻觉,主要原理是,大模型给出答案前,工具会调用客户提前上传的资料交叉验证是否准确。此前微软、google 都推出过类似的功能。
但幻觉并不是一无是处。nyt 发布的一篇报道采访了多位使用大模型的科学家提供了另一种视角:
计算机科学家艾米·麦戈文 (amy mcgovern)说:“它实际上给科学家带来了新的想法。让他们有机会探索原本可能不会想到的点子。”
麻省理工学院教授詹姆斯·柯林斯(james j. collins)说,他要求模型提出全新的分子,“幻觉” 加速了他们研究新型抗生素。因为 ai,科学领域曾经要花费多年时间解决的事情,现在几天、几小时和几分钟内就可以完成。
华盛顿大学的生物学家戴维·贝克 (david baker),因为快速创建自然界中未发现的全新蛋白质种类,获得了 2024 年的诺贝尔化学奖。贝克将 ai 的想象力爆发视为自己从头开始制造蛋白质的核心。他说这项技术已经帮他的实验室获得了大约 100 项专利。
他们认为,大模型的想法不虚幻,反而会有前瞻性——有一定的机会实现。他们将其比作科学研究早期阶段的猜想,认为 “幻觉” 这个词并不准确,会避免使用它。
题图由 ai 生成