感觉现在的 AI LLM 趋势对苹果而言就是死局

52 天前
 terrysnake
  1. 众所周知苹果最注重隐私保护,也宣传了很多年。
  2. 所以苹果只能做本地大模型。
  3. 众所周知模型参数越大效果越好越占空间和内存。
  4. 所以苹果撑死只能做个一般的本地大模型。
  5. 隐私保护的含义除了本地设备,还有禁止联网。(没错不联网就是本地的意思)
  6. 当前的对话框模式,对信息的实时性其实是有要求的,用户想的是一个框搞定,不只能给我写篇文章画个画,还要能实时搜索我想要的内容,比如:告诉我 NBA 当前的最新进展,并帮我分析下哪支球队最有可能夺冠。
  7. 这对苹果的隐私又是一种打击。

所以,综上所述,苹果要么就是放弃 AI ,或者放弃隐私保护。 不管怎么选,对苹果股价都没啥好处。

10708 次点击
所在节点    Apple
108 条回复
otakustay
52 天前
老实说我觉得问题不在这里,确实大模型是规模越大效果越好的,但放回到苹果产品的使用场景之下,我们对大模型的期望是什么,我以 iPhone 这个销量最高的为例,观点是我们并不期望能跑泛用大模型,而是期望大模型加持产品使用场景,这里如果苹果真想干,是有优势的:
1. 苹果在产品层面的整合向来是优秀的,特别是在整合后的体验上,虽然可能不满足一部分希望灵活定制的人的诉求,但从大众来看绝对是 top 的档位
2. 苹果对开发者的控制力非常强,类似于“定一个外卖”这种过程,苹果来让开发者提供相关数据和 API 到系统层,比安卓生态更有可行性
3. 对于移动场景上的应用场景,小规模的模型的能力是足够的,苹果最新发布的几个 LLM 在同规模上效果也确实是顶尖的
terrysnake
52 天前
@otakustay 就看它怎么干了
LuckyLauncher
52 天前
点外卖不是 app 去适配手机厂商?
既然都是 app 去做的,那么苹果只需要 理解用户意图 -> 打开 app -> 向 app 请求数据 -> 拿到数据处理 -> 向 app 发送指令

从这一链路来看苹果 ai 为啥要联网?
legenumbre
52 天前
现在的 siri 也不是本地的啊。

“如果 Apple 的确需要在我们的服务器上处理或存储数据,这些数据只会与被称作随机标识符的一长串字母和数字相关联。相关信息仅用于提升 Siri 的表现,我们绝不会进行分享或出售。Apple 不会保留你使用 Siri 时的音频记录,除非你选择了与我们分享这些信息以改进 Siri 。”
yvescheung
52 天前
@terrysnake
"Bloomberg: iOS 18 AI features will be powered by Apple silicon-equipped data centers"
翻译成中文是“彭博社:iOS 18 人工智能功能将由配备苹果芯片的数据中心提供支持”
wupher
52 天前
说的对,苹果股价这么高,肯定很有赚头。

现在开始长期卖空,财富自由就在眼前了。
xz410236056
52 天前
@terrysnake #39 ??? 不是你自己说的?你的逻辑不就是 LLM 需要更多资源->apple 注重隐私不能使用云端-> apple 只能做个阉割版的边缘计算->apple 搞不成 LLM
“苹果要么就是放弃 AI ,或者放弃隐私保护。”

我不是跟你说了?谁跟你说的 LLM 和隐私保护冲突的?
ajyz
52 天前
你这定义本就有问题,或者起码跟苹果的定义就有冲突,啥叫联网就没有隐私保护,那 iPhone 本身就不存在隐私保护,更别提现在已存在的 Siri 一样不存在你所谓的隐私保护
aeron
52 天前
苹果的云存储服务是不是在线?
8355
52 天前
@terrysnake #35 我觉得第一步还是苹果自己的 app 打通,之后你这种场景肯定还是 app 的开发者去对接给苹果,类似 app 提供快捷指令的调用接口,同时在本地设备中生成什么样格式的数据可以给本地模型学习才能达到的。
保证隐私只有一个基础就是本地模型,不联网可以操作,但是真要到你这种场景牵扯到支付之类的可能还要在 app 上加一大堆开关和授权操作才能实现吧。
hahiru
52 天前
苹果如果想赶超 CloseAI 那必须走弯道超车。对拼大模型肯定是死路一条。只有利用好用户的数据,针对每个用户的微调模型才能真正让 AI 做到落地。 不然大模型那种统一的回复对于绝大部分用户来说只是一种搜索引擎。而且是费用有点贵的搜索引擎。 针对速度和费用可以先云端加本地。云端理解意义,再返回本地。
wulili
52 天前
你对隐私保护的理解有点狭隘,联网和隐私保护并不冲突
xstmjh123
52 天前
论据就错了,隐私保护和在联不联网是两回事儿
8355
52 天前
@8355 #50 如果我说的这种场景全部达到估计起步可能要 500g 才能正常应用吧。。模型就要占 100g+容量,每次充电到 80%以上开启学习。
miniliuke
52 天前
icloud 笑了:是的我是注重隐私的......
qieqie
52 天前
本地不了一点,考虑过模型常驻内存的成本或者不常驻内存冷启动的延迟吗。更不用说还有个功耗限制。
至于保证隐私的实现路径也很多,最简单的就是云端大模型做任务规划,出一个 NL SDK 之类的让各个 APP 去把自己的 function call 的能力提供给系统,然后端侧小模型去执行就行。
bghtyu
52 天前
联网查询公开信息是没问题的。但是用户和模型的聊天内容属于隐私内容,按苹果的调性肯定是要本地处理的。希望苹果能为了本地模型顺便提升下内存🤩
WilliamZuo
52 天前
联想搞的小天大模型有本地处理和联网处理两个选项,但浅浅适用了一下没搞明白具体差异,或者是它是怎么划分端侧和云端任务的,理论上 ultra 7 和 32g 内存的商务本跑不动纯本地 llm 。
jojoec05951
52 天前
Siri 这么多年了,还没小爱同学好用。这把又准备闷声搞 llm ,苹果还有多少神话。vision pro 是刚被搬出来的神话,我觉得,神话还是别搬出来了,搬出来就会变色笑话
opengps
52 天前
换个思路考虑,所谓的隐私保护,其实是让更少的人或者物知道你的隐私,你把所有隐私都放在苹果确实做到了隐私保护

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1039330

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX