V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  supergeek1  ›  全部回复第 4 页 / 共 5 页
回复总数  86
1  2  3  4  5  
213 天前
回复了 brickwan 创建的主题 求职 Python 后端开发, AI 应用开发, RPA 应用开发
除了 RPA 和小程序,和你的技术栈差不多(不过我现在是不到四年经验)想知道这些技术现在大概能拿多少
213 天前
回复了 hello267015 创建的主题 随想 瞎琢磨:迷信是个体问题吗
我的看法,科学和宗教有本质的区别
科学不是定论,虽然现在还有很多科学解释不了的,但是解释世界的方式在不断完善,是逐渐趋近于正确的
至于宗教,则是在固有的框架里什么都可以往里套,很好奇宗教中的各种概念、故事、规矩都是怎么来的
214 天前
回复了 Int100 创建的主题 macOS 如何解决蓝牙鼠标在 MacOS 里不够精准的问题
无解,蓝牙鼠标回报率只有 125hz (我是没找到更高的) 2.4G 的基本都是 1000hz
217 天前
回复了 idoubi 创建的主题 分享创造 开源一个 RAG-Search API 项目
这个搜索生成的大纲里的引用是如何做到的,如果是提示词的话可以分享下吗
22.98W
230 天前
回复了 walle1530 创建的主题 推广 手里有大量 GPT 额度欢迎白嫖
kendrick
谢谢
可以,m1 pro 跑个小模型速度很快
我用 vsc 同时开几个几万行的 python 项目也就是几秒加载完,倒是 pycharm 会特别慢,好几分钟那种
254 天前
回复了 jidushan 创建的主题 OpenAI 国内 AI 商业化,比较可行的路径有哪些?
@supergeek1 法律业务,准确率倒是可以通过外挂知识库之类的方式提升,主要是想了解那个模型的逻辑更好。价格都还可以接受,Moonshot 0.6 文心 4 0.12 GLM4 0.1
254 天前
回复了 jidushan 创建的主题 OpenAI 国内 AI 商业化,比较可行的路径有哪些?
可以说下国产模型的测试结论吗,我们公司最近也计划接入,目前会在文心 4 、GLM4 、Moonshot 这三家中选择
289 天前
回复了 xinsuncs12 创建的主题 推广 低价 gpt 中转 api 官方价格十四分之一
不支持 gpt-4-1106-preview 和 gpt-4-vision-peview 吗
296 天前
回复了 nishuoshenme 创建的主题 问与答 自如退房可以把床垫带走吗
自如商城有卖他们用的床垫
@iorilu 我用的公司的 api 账号,个人的话去查 GPT API 中转站,有送免费额度的、购买折扣也很低,有些能做到甚至官方的 1 折左右
| 项目 | 价格/年 |
| --- | --- |
| VK 加速器 | 239 |
| 京东 plus | 74 |
| iCloud 50G | 72 |
| 盒马 | 258 |
| Spotify 家庭 | 66 |
| 88 会员 | 88 |
| west data 合租 | 65 |

ChatGPT 我的工作就是做这方面的应用,有免费的 API 可以用
copilot 这个确实比较刚需、暂时用 codeium 替代
jetbrains 系的基本不用,主力 vscode
影视的都是找 4k 资源,alist 挂载云盘看
software engineering at google
303 天前
回复了 jjxtrotter 创建的主题 Apple keychron m3 mini 好用吗?
蓝牙鼠标的回报率应该都是 125hz 的吧,都会漂; m3 mini 我是插接收器用的,开 1000hz 回报率,还是挺稳定的,没遇到啥问题。而且有 type-c 接收器不用转接头也挺方便的
304 天前
回复了 flypei 创建的主题 推广 元旦 T 楼! 送 Google One 2T + 京东 E 卡 300 元
新年快乐!
1  2  3  4  5  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5883 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 41ms · UTC 02:39 · PVG 10:39 · LAX 19:39 · JFK 22:39
Developed with CodeLauncher
♥ Do have faith in what you're doing.