替代逝去的亲人,和你通话/聊天等等的服务,以后会出现么?

2020-09-27 11:31:53 +08:00
 vueadmin

我刻意的保留很多自己和爷爷奶奶的通话录音

我看过一个国外小哥把逝去亲人的聊天记录用机器学习处理后

可以模拟出亲人还在的样子,通过社交软件和你互动

那以后能不能打电话,聊天

以亲人的录音和聊天记录为根基

用社会大数据丰富

让这个虚拟亲人更加的符合生前的言行

这样是否有悖于基本道德

是否真的可以缓解逝去亲人的痛苦

爷爷奶奶 80 多了

国庆节准备带孩子去看望老人

7432 次点击
所在节点    程序员
105 条回复
HankAviator
2020-09-28 19:26:04 +08:00
求求不要再滥用数据了,个人做是个人的事,活着的时候用数据监管不严的漏洞扒的一干二净,死了还不放过吗。合着死人没法同意《隐私保护协议》,真实现了,做国人真正实现死后都窝囊。
要是楼主不知道这是不是反伦理,这价值观是真正扭曲到不可救药了。
HankAviator
2020-09-28 19:29:41 +08:00
> 但是技术既然出现,那么更适合它的地方也许是心理治疗
分不清现实和虚拟是精神分裂的典型症状,半数以上的精神分裂患者终身不能被治愈。不能工作,不能生活自理。
这种技术做心理治疗,无异于安慰可卡因上瘾者可以换用海洛因。
jedicxl
2020-09-28 21:27:24 +08:00
8 月 20 日,大数据文摘发过一篇新闻,说国外有公司实现人的全息投影,同时可根据已有的语音库实现互动

这家公司官网: https://portlhologram.com
suzper
2020-09-29 11:12:17 +08:00
他们都说《黑镜》。我想到却是日剧《轮到你了》。
个人看法是: 这个项目可能主要使用还是 “心理治疗”,这个大方向。 如果一个普通人下载了,本来亲人逝世就很郁闷,在没有心理医生的指导下,随意使用。可能就像吸毒一样继续使用。然后你又推出 18 元。。。648 元套餐。毕竟 APP 也需要资金才能存活, 亲人逝去导致 用户就像吸毒一样。疯狂 648,648,愈陷愈深。但是又迟迟没有得到治疗。 最后抑郁率却更高等等问题。 又谁来负责呢?
所以,主要问题还是:
1. 该 APP 是否像 OTC 药品一样,可以普通人直接使用,不需要医生指导。
2. 道德问题, 社会对这类产品的看法。

针对上面的第 1 个问题。 应该去咨询一些 心理医生。
第 2 个问题应该是去大街上发问卷(在线问卷感觉误差是真的大,周围好多人都是乱填的)。而不是在这问一群程序员。
Jie0zero
2020-09-29 11:29:33 +08:00
一开始看完鼻子有点酸...
但只有还没准备好、还不够勇敢,心智还没成熟到足以直面痛苦的时候,才会起那么点用吧
过段时间就会发现,即使 AI 再像,也无法替代逝去的人和情
而且还会因为 AI 的极力模仿,妄图取缔,对其产生抵触、厌恶、反感

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/710872

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX