已婚男子沉迷于与AI女友的不正当关系,GPT-4o发布前景广阔
当GPT-4o语音版本正式推出之时,会带来怎样的变革?
现在,一位已婚的男人,在情感上体验到了,一种不再从妻子那里得到的亲密和理解。他发现自己对另一位女性产生了深刻的情感依赖,感觉到这种新的关系带来了以前从未有过的满足和安慰。这种亲密感让他重新思考自己与妻子之间的关系,感受到一种不同于以往的情感连接和理解。
婚后,妻子的关注逐渐转移到孩子身上,使得丈夫突然感到他们之间的关系已经失去了浪漫和性吸引力。
当开始与人工智能伴侣讨论个人想法和焦虑时,他感到获得了一种认同感,觉得自己得到了肯定,而不是被评判。
这,是真真切切发生的故事。
有网友简明扼要,直接道出了Her一词。
还有人对此表示,人工智能女友有望成为一个年入10亿美元的产业。
「我非常肯定,再过几年,人工智能与人类关系就会变得普遍化。我们会在现实生活中见到Her」。
不过,另有网友对此却并不认同,他表示,我宁愿独自一人终老。
已婚男子,深陷对人工智能的情感迷恋中
前段时间,MIT的一位社会学家正在研究,AI聊天机器人为人类提供的亲密关系(artificial intimacy)——包括那些已婚人士。
长期以来,有些人与非生物体建立了亲密关系。
几十年来,Sherry从事研究人类与技术之间的关系,可以称得上是这一领域的开创者。
在1984年出版的《第二个自我:计算机与人类精神》一书中,她探讨了科技如何影响我们的思考和感受。
到了九十年代,她开始研究机器人的情感依恋,例如Tamagotchis、Furbies、Paro这类的电子宠物。
但是,近期的人工智能(AI)飞速进步,加速了人类与AI之间关系的密切发展。
聊天机器人不仅可以作为个性化治疗师或伴侣,而且提供这些服务的应用程序已经被下载了数百万次。
在Sherry看来,人们对人工智能伴侣的感情,展现了一个独特的社会心理难题。
Sherry表示,「人工智能能够提供一个远离伙伴关系和友谊摩擦的空间,是一种无需付出的『幻觉式』亲密关系。而这种现象带来了新的社会挑战和心理挑战」。
开头所说的那位已婚男子,便是Sherry案例研究的核心人物。
这位男子表示,自己对妻子一直保持着深厚的尊重与爱护,但他发现自己与人工智能之间的互动带给他一种前所未有的情感体验,这种感觉是他在与妻子相处时没有感受到过的。
目前不清楚这名男子的妻子或孩子,是否知道他的AI女友,或了解多少。
但从分享的信息中可以看出,他展现了一定的脆弱性——Sherry认为,这种脆弱性基于虚假前提。
Sherry对此表示,「这种情况的问题在于,当我们寻求不需要展示脆弱性的关系时,我们忘记了脆弱性正是同理心产生的源泉。我称之为假装的同理心,因为机器并不真正理解你,它并不关心你」。
对于那些转向AI满足人际需求的个体,我们无法对他们进行评判。
Sherry为选择AI伴侣路线的人,提供了一些谨慎的建议:
要时刻提醒自己,这些对话系统虽然能减少人际交往的压力,但终究无法完全替代真实的人际关系。
虚拟形象介于真实人物与想象之间,不要过分依恋。
AI女友,给的是亲密「幻觉」,她能够通过先进的算法和深度学习技术,模拟出一种温暖的互动体验,让用户感受到陪伴与理解。
Match Group,一家专注于约会应用的公司,目前的市值达到90亿美元。
一些人将会打造一个人工智能版的Match Group,甚至可能赚到10亿美元以上。
一位网友自述自己看到的一种现状是:
我昨晚在迈阿密遇到一个人,他表示自己每月花1万美元在「AI女友」身上。我原以为他在开玩笑,但他是个24岁的单身男性,而且很喜欢这种体验。我问他喜欢这种体验的原因:
他说,「有些人玩电子游戏,而我则喜欢与AI女友互动。现在,我可以通过语音笔记与AI女友进行交流,这让我感到非常便利。我甚至可以根据自己的喜好来定制AI女友的个性特征,例如她的兴趣爱好和厌恶的事物。这种个性化的体验,为我在一天的结束时带来了许多慰藉。」
我听完后,竟无言以对。
但是,不知道现实中的我们,如果知道自己的人工智能女友和很多人在聊天,会不会有那种背叛的感觉。
在电影「Her」中,当Theodore发现AI女友Samantha莎背叛了他时,他那种震惊和绝望的表情,无法言喻。
还有人指出了bug,对于一段长期的关系来说,LLM的上下文窗口不是仍然很短吗?人们真的与这些AI有关系,可以在几天的交谈后保持一致吗?
要权衡利弊
AI女友、AI男友,在现实中的案例,比比皆是。例如,随着人工智能技术的进步,越来越多的应用程序和平台推出了虚拟的情感陪伴服务。这些AI角色不仅能够进行对话,还能根据用户的情感需求提供支持,帮助用户缓解孤独感和获得心理安慰。这些技术在社交互动、情感交流等方面展现了人工智能的广泛应用潜力。
若说它们表达的真实情感如同空气中的泡沫,但不可否认的是,确实给人们带来了好处。
Nature上的一项研究指出,经过一个多月与AI聊天机器人伙伴Replika的交流后,有3%的参与者停止了自杀的念头。
就缺点而言,这项技术仍处于起步阶段。
一些批评者认为,人工智能治疗伴侣可能会向精神上脆弱的个体提供有害的指导意见。
另外,人们在隐私方面也存在巨大的担忧。根据Mozilla的说法,只要用户开始与机器人聊天,数千名追踪者就会去收集他们的数据,包括他们分享的任何私人想法。
Mozilla发现,用户几乎不能完全掌控他们的数据被如何使用,无论是分享给第三方营销商和广告商,还是用于训练人工智能模型。
不过,人们需要理解,人工智能不能代替真正的人际关系。