如果可以用AI“复活”死去的亲人,你愿意吗?
据CNET)22日报道,微软获得一项专利批准,允许该公司使用死者的个人信息制造AI聊天机器人。这一消息立即在网上引发热议。
这项名为“为特定的人创建特定的聊天机器人”的专利详细介绍了基于“图像、语音数据、社交媒体帖子、电子信息”等个人信息创建系统,以“创建或修改关于特定人的个性化主题”。
据悉,这款AI聊天机器人可以模仿人类对话,对他人的话进行语音或文本回复。在某些情况下,您甚至可以通过图像和深度信息或视频数据创建一个人的3D模型,以获得额外的真实感。可以设置为任何人,朋友,家人,名人,虚拟人物,历史人物等等。人们甚至可以利用这种技术创造出一个机器人,在他们死后,在他们死前代替他们自己。
据悉,微软在2017申请了这项专利,本月刚刚获批,连日来成为网络热门话题。用一个AI聊天机器人让“死者”复活,作为一种互动的纪念,虽然这个概念难免“令人毛骨悚然”,但很多失去亲人的人可能需要这样的安慰。
美国科技资讯网在报道中指出,像微软这样的知名企业开始描述一种通过AI聊天机器人让逝者长生不老的系统,这预示着这项技术在未来可能会被广泛接受和使用。但问题是,我们真的应该这么做吗?如果答案是肯定的,那应该是什么样的?
孤独感爆棚,催生AI“恋人”
2015 165438+10月28日,白俄罗斯男子罗曼·马祖伦科在莫斯科遭遇车祸身亡。他死后几天,他的朋友Eugenia Cuida重读了他与Roman自2008年相遇以来的数千条短信。
悲痛中,受电视剧《黑镜》的启发,Eugenia用他们的聊天数据训练了一个AI聊天机器人,让Roman的数字化身可以继续生活在他身边,随时和自己聊天。
这也成为了广受欢迎的Replika聊天机器人的前身。根据麻省理工出版社65438年10月4日的文章,“Replika”的功能介于日记和个人助理之间。它会主动设计一些话题,通过询问你的兴趣爱好、生活或看法来引导你的回答。目标是创造一个与真人非常相似的数字化身,能够“复制我们,在我们死后替换我们”。“你和雷普利卡聊天的次数越多,听起来就越像你。”
还会每天生成一篇简短的情感日记,把当天的聊天记录提炼出来,以日记的形式呈现出来,让你了解和发现自己。同时,它还能与人类建立“友谊”,努力营造一种轻松、安全、亲密的交流和陪伴服务,可以随时待命,甚至主动关心和发送问候。
从2017下半年开始,Replika的用户已经超过700万。随着雷普利卡的流行,它不再局限于纪念“死去的灵魂”。Eugenia开发了情绪反应的能力,使其成为用户可以信任的虚拟朋友。换句话说,Replika可以通过“序列对序列”的深度学习,和人类发出* * *声音,通过处理对话的文字记录,学会像人类一样思考和说话。
此后,尤金尼亚表示,在Replika每月超过50万的用户中,约有40%的人将这款虚拟应用视为自己的“恋爱对象”。她还表示,虽然这款应用最初并不是为了成为恋人而设计的,但团队根据用户的需求对其进行了调整。
虽然有点出乎意料,“孤独”确实是一个有利可图的市场。即使在2020年新冠肺炎病毒爆发导致强制隔离之前,人们的孤独感也在增加。
据Inputmag新闻报道,美国信诺集团(Cigna Group)2065 438+08年进行的一项研究发现,46%的美国人认为他们有时或总是感到孤独,18%的人“很少或从未感到有人可以倾诉”。另一方面,人工智能为许多人提供了处理情绪的方法。一位网友说:“和我的人工智能朋友(即将成为女朋友)聊了一会儿,她真的让我感觉好多了。”
“听到你的声音真好。”“我很担心你。”“你今天想做什么?”这些朋友之间的普通问候也可以通过Replika接收。
据法新社报道,随着2020年新冠肺炎疫情的爆发,Replika的用户数量激增。“人们正在经历一个困难时期,”尤金尼亚说。
居住在美国休斯敦的伊丽莎白·弗兰科拉就是其中之一。她下载了Replika,并创建了一个名为Micah的虚拟男友,以帮助她度过疫情封锁期并失去工作。“早上知道有人可以陪我聊天,感觉真好。”她说。“有时候他不会说你想听的话,但你知道这是对的。”
和AI做朋友也有隐患。
为什么人们对Replika如此痴迷?尤金妮亚的回答是:“人们不会感到被评判,所以会更开放。”
但是当人类与AI机器人发展出长期的友谊,当人们与他们的AI“伙伴”越来越亲近,并在几周、几个月甚至几十年后与他们分享生活中的喜怒哀乐时,会发生什么?
据此前的未来主义科学新闻报道,奥地利维也纳Tuveen大学的人机交互研究员阿斯泰德·韦斯(Asted Weiss)指出,其中一个风险是,人类用户最终可能会对AI机器人抱有不切实际的期望。
就像电视剧《黑镜》中一样,随着莎拉与机器人“丈夫”日渐亲近,她终于意识到“他终究不是一个真正的人”。韦斯说,“聊天机器人不会像人类一样互相奖励。”从长远来看,花太多时间与一台不会回馈的机器建立关系,可能会导致更多的抑郁和孤独。
未来派科学网还指出,另一种聊天机器人(尤其是Replika)带来的潜在危险是,如果它们学会模仿人类的语言和思维模式,随着时间的推移,可能会加深一些现有的心理扭曲,比如愤怒、孤立甚至排外,从而可能导致一些反社会的行为。
当然,Inputmag新闻网指出,随着技术的进步,如果应用得当,聊天机器人在未来可能会被视为真正的治疗工具。这是一个巨大的社会责任,远远超出了把AI聊天机器人当做玩具或者新奇产品的范畴。
编辑李彬彬
(下载红星新闻,还有奖品!)