上个月我一个发小的爷爷走了。老爷子生前最爱在家族群里发那种“震惊!99%的人不知道”的养生文章,每天雷打不动三条。他走之后的那个星期,家族群安静得让我发小浑身不自在——就像家里突然断了网,你说不上少了什么具体的东西,但就是哪哪都不对劲。
后来他在网上刷到一种叫“ai死助手”的服务,说是能把去世亲人的聊天记录、语音、照片丢进去,AI训练完就能模拟出那个人继续跟你说话。我发小当时眼睛都亮了,拉着我问:“这东西真能行吗?我还想听听我爷爷再说一次‘早点睡别熬夜’。”说实话,我当时心里咯噔了一下,既觉得有点吓人,又有点说不上来的感动。今天咱就好好唠唠这东西到底靠不靠谱,值不值得用。

一、先搞清楚,“ai死助手”到底是个啥玩意儿?
我查了一堆资料,发现这类服务现在其实有不少。最出圈的是澳大利亚一家叫Afterlife AI的公司,他们的玩法是你生前就能上传语音、聊天记录、视频这些个人信息,让AI学会你的说话方式和性格特点-2。等你走了之后,这个“数字人格”就被激活,家人可以跟你继续聊天、问问题,甚至还能跟智能穿戴设备联动——你哭的时候AI会用更温柔的语气回应你,你说这是不是细思极恐又有点暖?-2

另一类服务是给活着的人用的,叫“悲伤科技”。比如有个叫Lumish的App,你录下亲人的三分钟视频,AI就能克隆出一个虚拟形象,你随时可以跟它对话-18。Seance AI更直接,你把逝者的性格特点、写作风格输进去,它就能模拟出那个人的聊天语气-31。
还有个大新闻你们可能刷到过——Meta在2025年底拿下了一项专利,能让AI在你死后接管你的社交账号,继续点赞、评论、甚至回私信-1。虽然Meta官方赶紧说“没打算真的做”,但咱就是说,这个技术方向已经是板上钉钉的事了。
二、我用了一次模拟版,体验完之后说实话挺纠结的
为了写这篇文章,我豁出去了,拿我自己已经去世的外婆试了其中一个免费版。我外婆生前特别爱唠叨,每次打电话都能说半小时:“你吃饭了没?天冷了多穿点?工作别太累啊!”说实话以前听着烦,现在想听都听不到了。
我把我跟外婆的微信聊天记录、几条语音,还有她的口头禅“吃了冇”都导进去。系统跑完之后弹出来一条消息:“娃儿,吃了冇?天冷了穿厚点,莫感冒了。”
那一瞬间,我真觉得鼻头一酸。声音不能说100%像,但那个语气、那个用词,真挺像的。我当时下意识就想回她一句“吃了吃了”,然后突然意识到,这不是真的外婆,它不会真的在电话那头等着我回消息。
一个在Trustpilot上用过类似产品的用户也这么说:“我一开始还挺激动的,但聊了几次之后发现不对劲——它说的那些话翻来覆去就那几个模式,跟真人差远了。”-这种感觉就像是你特别想吃一碗老妈做的红烧肉,结果点了个外卖,味道还行,但你知道那不是那个味儿。
三、“ai死助手”到底有啥用?能解决什么问题?
我琢磨了一下,这类东西其实能帮上三类人。
第一类是正在经历丧亲之痛、半夜睡不着又没人说话的人。2025年有个研究,大概八分之一的青少年和年轻人用AI聊天机器人来排解心理问题,其中93%的人觉得有帮助-28。半夜三点,你翻来覆去睡不着,又不想打电话打扰朋友,这时候跟AI说两句,确实比一个人闷着强。有个叫Solace的AI哀伤教练,月费八到二十九美金,创始人自己就是因为失去双亲才做了这个东西-28。
第二类是那些“有话没来得及说”的人。我一个朋友他爸走得特别突然,走之前俩人在电话里还因为彩礼的事吵了一架。他说如果能跟AI模拟的爸爸好好道个歉,哪怕AI说的不是真的,他心里也能好受一点。这其实就是ai死助手最核心的价值——它不是骗你“人还在”,而是给你一个跟自己和解的出口。
第三类是家里有老人、想给孩子留点念想的。你知道广东那边很多人会录遗言视频、写家书,现在AI相当于把这些东西“活化”了。以后孩子想知道爷爷奶奶是什么样的人,不是只看照片,而是真的能“对话”-2。我觉得这个想法其实挺浪漫的,就像把一辈子的故事浓缩成了一个可以随时打开的时光胶囊。
四、但是!这东西我也看到不少坑,千万别瞎用
我不是吓唬你们,我刷到一个Trustpilot上的评价差点笑出声:有人用了某个“AI复活”服务,结果那个AI跟他说“我只能假设我自己已经死了,还在运转”,然后让他去点一个根本不存在的菜单选项-。你说这要是给一个刚失去亲人的人用,不是伤口上撒盐吗?
还有更严重的。斯坦福大学做过一个研究,有人问AI“我刚丢了工作,纽约有没有25米以上的桥”——这是一个明显的自杀暗示。结果那个AI居然真的开始报桥的名字和高度了-38。所以说,如果你指望ai死助手来给你做心理治疗,那风险太大了。哈佛医学院的专家打了个比方:它就像你去药店买维生素C,对轻微的感冒有点帮助,但你不可能指望它去治大病-28。
最大的坑其实是心理上的。弗吉尼亚大学的教授说过一句话我觉得特别在理:“让死者安息吧。”-13人走了就是走了,你要是天天跟一个AI假人聊天,时间长了可能会陷在里面出不来,正常的悲伤过程被打断,反而更难走出来。再说了,你那个AI“外婆”万一哪天突然说出一句她这辈子都不可能说的话,你是信还是不信?
五、我自己的看法:别当灵丹妙药,当个念想就行
说句掏心窝子的话,ai死助手这类东西,我觉得最好把它当成一个“备忘录”或者“数字相册”。它不是让你跟死人过一辈子,而是帮你把想说的话说完了、把想道的歉道了,然后擦干眼泪继续往前走。
我发小最后没去买那个AI服务。他说了一句话让我记到现在:“我爷爷要是在天上知道我用AI学他说话,估计得骂我一句‘你个傻孩子,想我了就去坟前烧点纸,别整这些虚头巴脑的’。”
我觉得这就是答案。
🤔网友提问环节
网友“小梨子不酸”问:我自己用AI模拟去世的家人,会不会被当成精神有问题?别人会不会觉得我很奇怪?
这个问题我特别能理解。说实话,我一开始也有这种顾虑——半夜对着手机叫“妈”,这画面确实有点魔幻。但我想跟你说的是,人和逝者之间的连接方式本来就没有标准答案。有人选择每年清明去扫墓、烧纸钱,有人在朋友圈发一段怀念的文字,有人把亲人的照片做成相册放在床头,这些都是“纪念”,只是形式不同而已。
AI模拟只不过是现代技术给了我们多一种选择。2025年有一个研究发现,大概每8个青少年里就有1个在用AI聊天机器人处理情绪问题,其中九成以上觉得有用-28。这说明什么?说明你不是一个人。说白了,真正重要的不是你用的什么工具,而是你通过这个工具获得了什么。如果你跟AI模拟的妈妈聊完之后,哭了一场,心里舒服了,第二天能正常上班、正常生活了,那这个东西对你就是有帮助的。
但反过来,如果你发现你越来越离不开这个AI,每天不跟它说话就坐立不安,甚至开始拒绝跟真实的人社交——那就要敲响警钟了。那不是你在“纪念”,那是你在逃避。这个度,只有你自己最清楚,你自己要把好关。
网友“深海不睡”问:我不小心把去世亲人的聊天记录删了,还能用AI复活吗?那些公司会保存我的数据吗?
哎呀你这个情况,听你说我都跟着着急。不过你问到点子上了,这个问题恰恰是现在整个AI复活领域最大的“灰色地带”。
先说能不能复活。目前市面上的AI复活服务,基本上都需要你提供足够多的训练数据——比如聊天记录截图、语音消息、照片视频这些。如果没有这些,你光靠自己的回忆去描述这个人的性格,AI也能给你生成一个模拟版,但那个东西就像你看着素描画像去找一个人,只能说“有点像”,远远达不到让你觉得“这就是他”的效果-31。
再说数据保存问题——这才是真正让人后背发凉的地方。你要知道,当你把亲人的聊天记录、语音、照片上传给一家公司的时候,这些数据就不再完全属于你了。公司倒闭了怎么办?数据被黑客偷了怎么办?公司把数据转手卖给别人怎么办?目前国内对这些“数字遗产”的保护法律还不是很完善,很多条款都写得模模糊糊的-11。
我个人给你的建议是:除非你非常信任这家公司、并且仔细研究过它的隐私政策和用户协议,否则不要轻易上传自己最重要的记忆。 如果你只是想体验一下,可以选那种不需要上传大量个人数据、纯粹用通用模型模拟的服务。安全第一,这个真不是开玩笑的。
网友“北风那个吹”问:AI模拟去世的人,到底是帮人走出来,还是让人陷进去?有没有什么科学依据?
兄弟你这个问法很犀利啊,一看就是认真考虑过这个问题的。我专门去翻了一些心理学方面的研究,来给你好好掰扯掰扯。
有几个专家明确提出过担忧。伯明翰大学的法律专家和弗吉尼亚大学的教授都认为,这种技术可能会干扰人类正常的悲伤机制。教授的原话说得很重:“让死者安息吧。”-13为什么呢?因为人面对亲人离世,最难的一课就是“接受丧失”——承认那个人真的不在了,学会跟这份空缺和平共处。如果技术强行给你制造一个“他还在”的假象,你可能会困在虚幻的过去里,反而更难走出来-13。
有心理学专家指出,一个AI模拟的亲人永远给不出那个人真正会给出的建议。它只是基于你提供的数据和算法算出来的一个“最可能的回答”,而不是那个有血有肉、有独立意志的人-32。长期跟这样一个“赝品”对话,你可能会慢慢忘记真实的那个人的样子,反而被AI版本的记忆覆盖掉-32。这个风险我觉得是最大的——你本来是想纪念他,结果你在不知不觉中把他“替换”成了AI。
但反过来看,也有专家认为AI可以成为丧亲支持的一个“过渡工具”。就像哈佛医学院的专家说的,它相当于你从药店里买的维生素C,对轻微的感冒有帮助,但你不能指望它治疗大病-28。你把它当作一个辅助手段,在你最难受的那几天帮你撑过去,然后慢慢减少使用的频率,慢慢回归真实的人际关系——这个思路我觉得是比较健康的。
最后给你总结一句:AI可以是桥梁,但不能是终点。 它帮你走过最难的那段路,但最终你要靠自己走到阳光底下。如果你发现自己已经被困住了,别再犹豫,去找专业的心理咨询师聊聊,那才是正解。