V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
isSamle
V2EX  ›  程序员

有啥好玩使用的 AI 项目吗

  •  
  •   isSamle · 2 天前 · 1490 次点击
    1. 前几天买了 RTX3090 24G 的显卡,搭配上 ds 或者 qwq 或者 qwen 基本实现了模型自由,实测状态下语义理解和表达可用性还行。
    2. 知识库整理起来目前感觉还是颇为繁琐,在逐步构建中,但是对个人而言实际使用频次不高,大概是有需要查一下。
    3. 其他模型目前常驻的是 SeamlessM4T (翻译)和 RMBG (抠图),提供下个人移动应用和小程序的相关功能支持。
    4. 目前个人开发了使用 AI 去帮忙构思、续写小说的相关功能已完成,但是相对来说目前个人状态不太能投入小说创作。
    5. 想看下有啥好用好玩的开源项目,能够直接部署接入本地接口的……
    11 条回复    2025-03-18 17:26:54 +08:00
    SGL
        1
    SGL  
       2 天前
    打造一个简易版的本地贾维斯,莫斯。取代弱智的小娜,Siri, 以及各种手机厂商的智能助手🐶。
    isSamle
        2
    isSamle  
    OP
       2 天前
    @SGL 我是说开源的可以拿来用的,不是自己开发,最近有点惰性😂
    visper
        3
    visper  
       2 天前   ❤️ 2
    下载部署涩图模型
    isSamle
        4
    isSamle  
    OP
       2 天前   ❤️ 1
    @visper 详细说说
    wsbqdyhm
        5
    wsbqdyhm  
       2 天前 via iPhone
    @visper #3 这个可以,详谈一下
    listenfree
        6
    listenfree  
       2 天前
    我是来学买习的 @visper
    elseswitch
        7
    elseswitch  
       1 天前
    @isSamle 3090 能部署什么样的 ds?
    TEwrc
        8
    TEwrc  
       1 天前 via Android
    这一套下来多少钱?
    isSamle
        9
    isSamle  
    OP
       1 天前   ❤️ 2
    @elseswitch RTX3090 24G 显卡,用 Ollama 最多能部署到,deepseek-r1:32B ,qwen2.5:32B ,qwq:latest(32B),gemma3:27B ,可用性来说对一般业务足够了,一般对话个人比较喜欢用 qwen2.5:14B ,相对来说没那么啰嗦,载入也比较快,然后对内容要求比较高的时候用 qwq 或者 ds
    isSamle
        10
    isSamle  
    OP
       1 天前
    @TEwrc 主机买的二手的 5000 ,显卡买的大概率是翻新的 7000
    elseswitch
        11
    elseswitch  
       1 天前
    @isSamle 收到,非常感谢
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1023 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 20:05 · PVG 04:05 · LAX 13:05 · JFK 16:05
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.