升级 iOS 17 后,iPhone变的更加聪明了






这一点和以 ChatGPT 为代表的服务器集群、超级计算机和海量级数据模型打造的 AI 不同,苹果的 AI 显得低调和另类。
不过这并不意味着苹果对 AI 不那么积极,苹果公司 CEO 库克也明确表示:
我们认为人工智能浪潮非常宏大,我们会继续以非常周到的方式在产品中接入 AI。
ChatGPT 火爆以来,苹果明显增加了和 AI 相关的岗位招聘,这就是苹果积极看待 AI 最好的证明之一。

苹果生态中的 AI 不上云,那么它是如何实现的呢?
答案就藏在苹果自研芯片中。
在 WWDC 2023 上,备受期待的 M2 Ultra 芯片正式登场,它采用了第二代 5 纳米工艺制造,拥有多达 24 个 CPU 内核、76 个 GPU 内核和 32 个内核的神经引擎,每秒可进行 31.6 万亿次运算。
苹果表示 M2 Ultra 最高支持 192GB 的统一内存,在一个单一系统中可以训练庞大的机器学习工作负载,比如大型 Transformer 模型。再提一遍,Transformer 是支持 ChatGPT 的重要技术之一。
这块芯片强大的地方在于内存。运行相同的大型 Transformer 模型时,目前最强大的独立显卡 也无法处理,因为内存不足,而 M2 Ultra 游刃有余。
这样就意味着,每台搭载苹果自研芯片的设备都是一台可以在本地训练 AI 的设备,而且被训练的 AI 是完完全全为这台设备的个人用户服务的。
这种策略的好处在于,是可以在更短的时间内将 AI 能力提供给更多用户。
目前大模型所需的算力成本极高,明星 AI 初创公司 Inflection AI 最近融资了 13 亿美元,领投的是英伟达,然而 Inflection AI 转头就花 11 亿美元向英伟达购买了 2.2万块 H100 芯片,大模型居然开始成为像煤炭、石油、钢铁这样重资产行业。
按照 GPT-4 每千个提示词的成本高达 12 美分推算,如果要将 ChatGPT 部署到苹果全球超过 20 亿台设备,运行的成本将是天文数字,也会大大提升终端设备成本。
如果说 OpenAI 是集约式的,犹如一颗所有人都可以调用的大脑,那么苹果的 AI 则是分散式的,仿佛存在于每个人身体里的无数个细胞。
苹果在 AI 路上掉队了?
ChatGPT 的爆火之后,苹果不止一次被怀疑「掉队了」。
事实真是如此吗?
实际上早在 2016 年,苹果斥资 2 亿美元收购了 Turi(一家致力于从事机器学习和人工智能研究的创业公司)布局人工智能领域,获得了 Turi 在开发机器学习工具和平台方面的专业知识。
2019年,苹果再次花费 2 亿美元收购了 Xnor.AI 公司,为苹果产品提供了低功耗基于边缘的 AI 技术。
因此,在前几年的苹果产品中,用户经常能使用上 AI 驱动的功能,例如 Siri、相册分类和搜索等,只不过苹果太「高冷」了,根本不会像其它公司一样进行高调的宣传。
作为 AI 公司,如果要说苹果的 AI 技术没自家公司先进,可能很多人会表示赞同,但要说苹果的 AI 毫无布局且一事无成,那就是轻敌了。
当以 ChatGPT 为代表的 AI 从软件出发,正在对如何和硬件相结合感到棘手的时候,苹果所做的是让 AI 在软硬件层面结合,还顺利推广到了消费者群体中,每位用户都正在使用着。
虽然 ChatGPT 推出两个月后月活用户就突破 1 亿,但和很多大模型产品一样依然存在着不小的使用门槛和局限性,对话框里的聊天机器人也并非 AI 终极的交互方式。
AI 公司 Cohere 的 CEO Aidan Gomez(著名论文《Attention is all you need》的主要作者之一)表示,目前 AI 系统的能力终究是有限的,因为并非所有的内容都是文本形式。
我们现在的模型确实是字面意义上的「盲人」,这需要改变。
现阶段,对于全球绝大多数人来说,iPhone 可能还是他们最先感受到 AI 浪潮的地方。
每年 20 亿台活跃着的苹果设备都是一台处理器强悍的 AI 训练设备,还是用户心甘情愿掏钱自购设备无形中训练 AI,目前也只有苹果能做到了。
正如爱范儿此前分析所说的,与 ChatGPT 等大模型相比,苹果 AI 更注重的是,如何提升终端用户的体验。
这是典型的苹果产品思维,1997 年乔布斯在一次公开大会上,被一名程序员当众质疑不懂技术,乔布斯给出了这样的回答:
不要沉迷在所谓的技术里,你必须从客户体验入手,然后再回过头去开发技术,而不是从技术入手,然后再试着想办法,这个技术能用到哪?我认为这才是做事的正确方法。
推特崩塌了,微博赚麻了。 月入过万?99元的AI课,真有这么神奇 奔驰,终于要听懂人话了 公测10天,招来2万“男友”,虚拟女友这次真来了!
