LaurelHarmon

LaurelHarmon

V2EX member #606721, joined on 2022-12-14 17:19:25 +08:00
Per LaurelHarmon's settings, the topics list is hidden
Deals info, including closed deals, is not hidden
LaurelHarmon's recent replies
@ntedshen 这个是工作需求,会经常看很多这方面的信息,教师列表、招生政策等,收藏夹一个一个找太慢,就习惯搜索引擎直达目标
![狗皮膏药网站链接]( https://imgur.com/a/j7RKCXL)
@yemoluo 试了一下没有,试了朋友圈看到的不同的电子请柬帖子,不管是实名授权还是游客模式,在微信的 [设置] - [个人信息与权限] - [授权管理] 里面都没有看到这些婚礼网站的授权记录。只有王者荣耀 腾讯会议这些。请问是在哪里取消的?
Dec 12, 2025
Replied to a topic by jiey2 教育 大家希望自己的孩子熟练掌握 Python 吗
要不,看看量化丁鹏?
Dec 11, 2025
Replied to a topic by hellopz 随想 我觉得豆包手机是大势所趋
手机都没了,微信还怎么制霸,微信可能活不过 10 年
封了正说明它的出现是颠覆性的
这是各种 APP 乃至终端类型、商业模式重新洗牌的机会
未来若干年,软硬件层面会出现越来越多新的、不可思议的事
深处其中的你我会从以往的前沿达人,逐渐变成"怎么操作","这有什么用"...
Dec 5, 2025
Replied to a topic by sillydaddy 职场话题 用 AI 做了 2 个小工具后的感想
二八定律依然有效,20%时间做出 80%效果,剩下 80%时间在跟他交流让他 de 那 20%的 bug ,翻来覆去改不明白,稍微搞点正经项目就知道它短板了
Nov 24, 2025
Replied to a topic by YanSeven 程序员 关于大模型原理的感叹
“原理从 Bert 甚至从 lstm..没变过”这样说不对,bert 是判别模型,gpt 是生成模型,压根不是一个路子。BERT 属于走了岔路,跟当前的生成模型进步没啥关联。

真正一步一个脚印的基石是
AlexNet(2012 ,横空出世,证明了神经网络有用)
word2vec ( 2013 ,文字到向量,文字也能打上神经网络便车)
Attention 机制用于机器翻译( 2014,发明 Attention 机制,简单有效,天才的创新)
Attention 用于文本蕴含( 2016 ,加入全盘 Attention ,Transformer 的灵感源泉与雏形)
ResNet ( 2016 ,残差链接,支持深度网络)<---中国人在 LLM 发展浪潮中为数不多的原创性贡献--->
Attention is All you need (2016 ,抛弃 LSTM ,彻底采用纯 Attention(Transformer),划时代工作)
GPT-1 ( 2018 使用 Transformer 做生成,小有成就)
GPT-2.5, GPT3.5, ChatGPT(接下来这些就是 Scaling law 了,这才是量变引起质变)
所以不仅仅量变引起质变,还是一步一个台阶走上来的
其中走了很多网路(例如 BERT , 抛弃了很多旧时代的东西例如 LSTM ,CNN )
Nov 20, 2025
Replied to a topic by Taozhu 生活 女友和男同事暧昧的帖子
不是,“看见刀”有这么难理解吗,刀只是一个意象,意思是通过告诉机箱型号这一举动来向别人发出警告,又不是真的带刀。写代码写傻了吧
About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   5410 Online   Highest 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 16ms · UTC 01:11 · PVG 09:11 · LAX 18:11 · JFK 21:11
♥ Do have faith in what you're doing.