V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  adgfr32  ›  全部回复第 4 页 / 共 19 页
回复总数  378
1  2  3  4  5  6  7  8  9  10 ... 19  
151 天前
回复了 ljlljl0 创建的主题 分享创造 MCP 开发给运维带来的机会
@ljlljl0 告警日志这种场景确实很安全,而且和主流程解耦,经常被玩出花。
152 天前
回复了 LiJavaT 创建的主题 Java 异步架构的设计困惑
消息队列仅作为中间件, 实际的调度, 资源分配, 流量控制在应用层做.
@ClaudeAi
别人说你的时候, 你这么说: 你拉黑不就行了?
那我说你的时候, 你却说一堆道理, 拉黑我不就行了? 双标怪
@ClaudeAi 到处看见你的垃圾机器人截图,做的真垃圾。
152 天前
回复了 ljlljl0 创建的主题 分享创造 MCP 开发给运维带来的机会
运维不太可能,出于安全和稳定性,目前的 mcp 都不能胜任。
base64 不算什么,曾经有表演艺术家留了 md5
https://www.v2ex.com/t/937283
请问 op 平时饮食味道咋样,会觉得不好吃吗,或者有没有什么味道和能量比较平衡的推荐,感谢
155 天前
回复了 KingCoding 创建的主题 程序员 求助:大模型如何处理大量工单数据
@KingCoding 用大模型跑数据反而是少量多次更好,相比较模型生成内容的时间,中间的网络消耗可以忽略不计。
影响模型算力的消耗最直接的因素是你上下文的长度,假设你 8k 的上下文能跑 50 并发,16k 上下文可能 20 都没有。之所以你需要等这么久也是因为上下文比较长。
另外我突然想到一件事,你们为啥要自己部署呢,打线上有些 mini 模型跑个 1w 条不要钱一样。
155 天前
回复了 beyondstars 创建的主题 编程 编程真无聊啊
编程很有意思!
只是你的工作无聊,典型的拉不出屎怪地心引力。
155 天前
回复了 KingCoding 创建的主题 程序员 求助:大模型如何处理大量工单数据
如果大前提是一定要用大模型
不是特别明白为什么要批量请求,每个工单请求一次,做一些分析,分析结果做成结构化的数据保存起来。这样即使工单再多处理完也只是时间问题。不得不使用批量请求的原因是什么呢
直接把短信全屏蔽,收验证码的时候到拦截里面捞一下。
156 天前
回复了 laijh 创建的主题 职场话题 失业后,也许我们可以继续干,简单列列
@laijh 按照这么算,为什么不做一千个小程序呢,就有 300w 的收入了
161 天前
回复了 leegoo 创建的主题 分享发现 兄弟们,Claude4 发布了 ,赶紧冲
怎么的,AI 的天又又又要变了?(狗头
如果只有两个选 1
第二家公司有几个点扣分:
1. 绩效工资
2. 做的东西没啥技术含量
3. 不成体系,你学不到行业经验
调薪,年终什么的听听就算了,每个月到手的才是王道。
用公司的,尽量工作和生活隔离开。
163 天前
回复了 life90 创建的主题 剧集 推荐一部正常恋爱过程的电视剧
动漫可以吗,《月色真美》
1  2  3  4  5  6  7  8  9  10 ... 19  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1002 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 23:19 · PVG 07:19 · LAX 16:19 · JFK 19:19
♥ Do have faith in what you're doing.