it之家 6 月 11 日消息,苹果公司当地时间 6 月 9 日宣布对其人工智能模型进行了更新,这些模型为苹果设备上的 apple intelligence 功能提供支持,涵盖 ios、macos 等系统。然而,根据苹果自身公布的数据,这些新模型的性能表现并不如一些竞争对手的旧模型,尤其是与 openai 等科技巨头的产品相比。
it之家注意到,在博客文章中,苹果指出,其最新的“苹果设备端(apple on-device)”模型(运行于 iphone 等设备上且无需联网)生成的文本质量,经过人类测试者评估后,被认为与谷歌和阿里巴巴的同规模模型“相当”,但并未优于它们。而苹果的另一款更强大的模型“苹果服务器(apple server)”(该模型旨在在公司的数据中心运行)在测试中则落后于 openai 一年前推出的 gpt-4o。
在另一项测试中,苹果的模型在图像分析能力方面也未能脱颖而出。根据苹果自己的数据,人类评估者更倾向于选择 meta 的 llama 4 scout 模型,而非苹果的 apple server。这一结果令人意外,因为 llama 4 scout 在多项测试中表现不如谷歌、anthropic 和 openai 等人工智能实验室的领先模型。
这些基准测试结果进一步印证了此前有关苹果人工智能研究部门在激烈的 ai 竞争中落后于竞争对手的报道。近年来,苹果的 ai 能力表现平平,备受期待的个性化 siri 升级也无限期延迟。甚至有部分用户对苹果提起诉讼,指责该公司宣传其产品具备尚未实现的 ai 功能。
此次更新的“apple on-device”模型拥有约 30 亿参数,主要用于生成文本、总结和文本分析等功能。参数数量大致对应模型的解决问题能力,通常参数越多,模型表现越好。从周一开始,第三方开发者可以通过苹果的 foundation models 框架接入该模型。
苹果表示,“apple on-device”和“apple server”两款模型在工具使用和效率方面较前代产品有所提升,且能够理解大约 15 种语言。这主要得益于其扩展的训练数据集,其中包含图像、pdf 文件、文档、手稿、图表、表格和图表等多种类型的数据。