感觉现在的 AI LLM 趋势对苹果而言就是死局

49 天前
 terrysnake
  1. 众所周知苹果最注重隐私保护,也宣传了很多年。
  2. 所以苹果只能做本地大模型。
  3. 众所周知模型参数越大效果越好越占空间和内存。
  4. 所以苹果撑死只能做个一般的本地大模型。
  5. 隐私保护的含义除了本地设备,还有禁止联网。(没错不联网就是本地的意思)
  6. 当前的对话框模式,对信息的实时性其实是有要求的,用户想的是一个框搞定,不只能给我写篇文章画个画,还要能实时搜索我想要的内容,比如:告诉我 NBA 当前的最新进展,并帮我分析下哪支球队最有可能夺冠。
  7. 这对苹果的隐私又是一种打击。

所以,综上所述,苹果要么就是放弃 AI ,或者放弃隐私保护。 不管怎么选,对苹果股价都没啥好处。

10654 次点击
所在节点    Apple
108 条回复
fredweili
49 天前
保护隐私就只能本地小模型么?那 Siri 是怎么工作的?
tangtang369
49 天前
你可能对苹果目前的 ai 性能有点误解,现在的 llm 核心问题是本地端内存不够,加载不了模型,理论上增加内存可解
terrysnake
49 天前
@sakilascott 有些有用,有些没用吧,不能一概而论。
terrysnake
49 天前
@woxihejinghao 本地毛线,你用用安卓的就知道了。
terrysnake
49 天前
@justfindu 是啊这不就是大模型吗?
Socrazy
49 天前
本地运行小模型,处理机器内部信息,一直就是这么干的。
大模型同 Siri ,可以选择用于学习,不用于学习那就跟 Siri 一样上传呗。
terrysnake
49 天前
@lunafreya 我觉得还没小爱同学那个弱智懂得多
dinghow
49 天前
海外版应该是本地小模型处理基本请求 + RAG: https://www.theverge.com/2024/5/3/24148282/apple-ai-iphone-ios-18-plans-ajax
国行版可能直接用文心一言了
8355
49 天前
其实我觉得本地模型并不是所谓的大模型,只要做好当前手机里的数据做内部学习,呼叫 siri 和快捷指令自动生成高级内容就可以更好用了。学习数据来自于设备磁盘。
这样他们只需要对苹果系统训练出一套基础逻辑即可,剩下的根据用户的使用记录和数据慢慢学习调整。
类似变速箱学习逻辑即可。
terrysnake
49 天前
@cyll 是啊然后完全干不过别人
terrysnake
49 天前
@hahiru 上 1T 的爱疯给你 16G 内存(狗头)
terrysnake
49 天前
@dinghow 假消息
terrysnake
49 天前
@yvescheung 你这新闻都说了啥?和我说的有关系吗?
SeanChense
49 天前
端侧模型比联网模型最本质的区别是什么?
本质的区别是芯片、电力费用谁来买单。
terrysnake
49 天前
@8355 我再举个例子:
Siri ,给我在美团点一个我最长吃的黄焖鸡米饭。

这个例子下,我肯定要把所有的数据给到苹果,甚至是第三方 APP 的服务器内我的数据。
那么,这个模型是否需要联网?如果需要的话,那苹果怎么保证我的隐私?
这对苹果而言都是挑战。

国内的手机厂商就不会管那么多了,只要有接口,无所畏惧,哈哈
dinghow
49 天前
@terrysnake 那来点真消息看看
xz410236056
49 天前
“所以苹果只能做本地大模型。”
谁跟你说的。。。之前的 apple 的很多服务都会上传无特征向量。。你不会以为 LLM 是传原始文本的吧
terrysnake
49 天前
@dinghow 有真信息还猜啥
terrysnake
49 天前
@xz410236056 能不能不要断章取义
RealVic
49 天前
普通人的隐私不重要、没价值,只要能解决安全问题(比如建造监控网络,让坏人犯罪就被抓),裸奔都没问题。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1039330

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX