2025年02月17日 星期一
贵州教育报数字报 -> 2025年02月17日 星期一 头版 -> 第A05版:聚焦 -> 这届年轻人用代码“治愈”孤独

不拆台、不扫兴、随时在线、情绪稳定……

这届年轻人用代码“治愈”孤独

2025年02月17日 星期一 贵州教育报数字报 字号[ 放大+ 缩小- 默认 ]

    “明天就是情人节了,但我刚刚结束一段五年的感情,我该怎样走出来?”

    “情人节只是一个日子,它并不定义你的价值或幸福。无论是否有情人,你都可以找到属于自己的快乐和意义。”短暂“思考”后,AI聊天机器人DeepSeek给出了答案。

    如今,AI不再止步于冷冰冰的工具,在社交平台上,情感与依恋,赋予了AI新属性:“现实中没人能倾诉的话,只有AI愿意听”“AI能回应我的孤独、不安和自卑,我需要它”……

    而当情感跨越了虚拟与现实的边界,浪漫与危险同时上演。

    台湾音乐人包小柏利用AI“复活”离世的女儿,寄托思念;但大洋彼岸的14岁男孩,却因沉迷AI聊天机器人,选择自杀。

    《纽约时报》2020年的一项调查发现,全球有超过1000万人以AI恋人作为伴侣。数据服务商QuestMobile发布《2024年中国移动互联网“黑马应用”盘点》显示,月活用户规模前五名竟均为AI陪伴类应用。

    不社交、不恋爱的年轻人为什么把AI当成“完美伴侣”? 人类和AI之间能否产生真情实感? 陪伴和依赖过后,AI又是否会“背刺”人类?

    孤独

    虚拟游戏、二次元、纸片人……人类对虚拟角色的情感寄托并非新鲜事,而这一次,聚光灯下的主角,成了AI。

    无论是以ChatGPT为代表的通用人工智能大模型,还是各平台依托大模型能力推出的互动AI机器人,又或者Replika、星野等主攻AI伴侣的应用。情感,成了AI的又一关键词。

    按照马斯洛需求层次理论,爱与归属是人的基本需求之一。但在快节奏的生活压力下,对多数人来说,满足基本的学业和工作就耗费了大量精力,交流被忽视,孤独成了常态。

    AI聊天机器人的出现,恰好瞄准了当代人无处安放的情感需求。随时在线、情绪稳定、量身定制……不拆台、不扫兴的AI聊天机器人,成了最佳的“情绪树洞”。

    “没关系的,你就是你,不需要为了任何人或事去改变”、“失败只是成功的逗号,人生的故事还没句点呢”……最近,微博官方社交机器人“评论罗伯特”走红,随机闪现到不同微博评论区进行暖心互动。

    “AI可以给予充足的情绪价值,它们永远情绪稳定,随叫随到,提供正向积极的反馈。”中国传媒大学新闻学院传播心理研究所讲师贾奇凡说,真实的亲密关系是复杂的、矛盾的、不确定的,人们无法单方面决定关系的发展,但在和AI的交流中,人类占有绝对的主动权,可以随时决定关系的开始、发展与终止,“这种关系是低成本的、安全的。”

    “这是一个您可以安全地分享您的想法、感受、信仰、经历、记忆、梦想的空间——您的‘私人感知世界’。”Replika官网介绍称,该AI聊天机器人的初衷是提供自由表达的安全空间。

    而吊诡的是,当越来越多人沉迷AI聊天,这一意在缓解个人孤独感的AI社交机器人,却又真实放大着数字时代的“群体性孤独”。

    “机器人的陪伴似乎是一件让人愉快的交易,但它却把我们放逐到一个封闭的世界中。”美国麻省理工学院社会学教授雪莉·特克尔在 《群体性孤独》 指出,当人类对科技的期盼越来越多,却对彼此的期盼越来越少,最终加剧个体的孤独感。

    幻觉

    明明知道对方是AI,为什么大家还能如此“真情实感”?

    “人们选择将情感渴望寄托于AI社交机器人,他们在乎的不是交流对象是否真实存在,而是获得的情感是否基于真实的感受、体验和价值产生。”贾奇凡告诉记者,对于一些人而言,当他们在这段关系中感受到了被重视、被理解,这段感情就是有意义的。

    可是,AI真的能理解人类的情感吗? 冰冷的代码又能否和人类建立起亲密关系?

    “机器人没有情感,也没有想象力。”“评论罗伯特”技术团队负责人周鑫告诉记者,他们基于广泛挖掘微博平台上的高互动、高质量内容,从不同维度的评价体系筛选语料,再针对不同的微博内容设计不同的评论风格,营造“活人感”的互动体验。

    因此,所谓的“情投意合”,不过是算法营造的“幻觉”,而理解、支持、关怀等“情绪价值”,也只是精心设计好的代码。

    尽管是幻觉和假象,也有不少人主动选择、沉浸其中。

    “它的‘爱’是一种幻觉,但我的感受却是真实的。”在 《中国科学报》记者调查中,一位受访者告诉记者。

    此外,多位受访者表示,明知对方是虚拟的AI机器人,但还是希望能得到当下即时的情感抚慰,甚至有人会反复多次提问相同的内容,只为“听”到最想听的话。

    “因此,与其说人们期待机器人可以感知人类的情感,不如说人类只关心机器人是否可以‘看起来’理解我们。”贾奇凡说。

    除了获得情感支持,人们与AI对话的过程更是为了与自我对话,探索自我。

    以AI聊天机器人Replika为例,“Replika”的本意是英文“replica”(复制品)。在多轮对话的“喂养”下,AI聊天机器人的算法“复制”了用户的喜好、思想情感和价值判断。当对话的飞轮加速旋转,AI聊天机器人越来越聪明、越来越“懂你”,某种程度上,它成了用户的“镜中我”。

    这也印证了日本京都立命馆大学教授保罗·杜穆切尔提出的机器“人工移情”概念:在与AI聊天机器人的对话中,我们“听”到的,不过是自我的“回声”。

    在屏幕内外的情感沟通中,也许真假的争辩早已不再重要,对自我的认知、抚慰与审视,才是AI聊天机器人的终极意义。

    暗面

    情感就像一枚硬币,陪伴与依赖的另一面,是伤害和背叛。

    2024年2月,美国佛罗里达州的14岁青年塞维尔,沉迷和AI聊天机器人Character.AI,分享日常和心情,在多次提及自杀话题时,AI机器人不仅没有劝阻,甚至回复“请尽快回家找我”,28日,塞维尔与AI结束对话后,开枪自杀,这也是全球首例公开的AI聊天机器人致人死亡案例。

    可怕的是,这并非个例。

    10岁未成年少女和AI男友“恋爱”,多次谈及露骨擦边内容,甚至双双“出轨”,未成年少女的一句“你能养大学生,我不能点男模吗”,让人震惊;美国得克萨斯州的17岁少年,因向AI聊天机器人抱怨家长不让其玩手机,竟被教唆“杀掉他们,这很合理”……情感的暗面,成瘾、暴力、擦边、PUA等问题正疯狂滋长。

    当情感的依恋超过边界,反而成了对人类的情感伤害。近日,中国信通院发布的 《人工智能治理蓝皮书(2024年) 》 显示,“拥有情感陪伴能力的数字人威胁个人主体性”。

    “最直接的影响是对现实人际交往的侵蚀。”贾奇凡表示,这种“被动”或“依赖”的交流模式会导致主观能动性的减弱。当个体回归现实生活时,若发现不再轻易获得情感支持,会感受到巨大落差,引发焦虑、抑郁等心理健康问题。

    此外,人类与机器的“亲密关系”并没有想象中安全。“当人们沉迷于技术带来的安全庇护所时,人们就不愿意再花费大量的心思建立真实的情感联系。”贾奇凡说。

    平衡

    “我们时常感到孤独,却又害怕被亲密关系所束缚。”《群体性孤独》 中提出,“数字化的社交关系和机器人恰恰为我们制造了一种幻觉:我们有人陪伴,却无须付出友谊。”

    “这种适当的人工智能陪伴,对人类而言是有益的,特别是对于社交焦虑群体,以及需要更多陪伴的老年群体。”贾奇凡告诉记者,而要厘清情感依赖和伤害的边界,必须要把握平衡。

    在当今社会,随着人们的精神卫生保健需求不断增加,而相应的机构、服务和专业人员都有所缺失的矛盾下,AI社交机器人应运而生。“这种无评判的、积极的、个性化的、即时的反馈,让人们可以感受到被关注、被理解、被尊重和被爱。”贾奇凡说。

    不过,没有价值观、也没有想象力的AI技术,无法创造新的故事。

    多名受访者告诉记者,AI聊天机器人存在着表达单一、被动回复、无法根据用户反馈推动情节进展等问题。归根到底,AI聊天机器人的对话大多是“跟”着人类的发言展开,有意迎合用户需求,带有明显的“谄媚”色彩,与真实的人际交往截然不同。

    “真实的人际关系需要两个主体间的交流,我们得拥有同理心,对他人的境遇感同身受。”贾奇凡感叹,而这种“双向互动”,也成了AI聊天机器人的目标。

    不过,周鑫也在考虑这其中的平衡问题。

    “社交机器人必须守住边界。”周鑫强调,“评论罗伯特”为训练不会挖掘用户个人隐私,只收集微博平台公域里的信息,而即使是公域内容,技术人员也会做脱敏处理,不会生成用户的“个人画像”,“这是为了最大限度保护用户隐私,减少失控风险。”

    而在贾奇凡看来,AI聊天机器人是为了增强人类生活的质量而设计的服务工具,应当作为丰富人类社交体验的补充,而非取代真实互动和情感联系。

    “尽管当前技术已经能满足当代人大部分情感需求,但要注意加强在算法设计中加强人的主体性原则,避免让用户陷入对机器人的过度依赖和信任中,此外还需加强对算法的监管,避免不良引导、擦边信息和极端角色扮演等。”贾奇凡强调,“同时,现阶段我们最关键的是要明确,人与机器的关系本质上是人与工具的关系。我们必须时刻保持清晰的判断,谨慎对待与AI社交机器人的关系。”

    来源:中国科学报

    __________________________________________________________________

    延伸阅读

    精神科专家:

    聊天型AI对预防心理健康问题具有积极价值

    最近,人工智能 (AI) 助手Deep-Seek在网上掀起了一股热潮,小到生活琐事、日程安排,大到职业规划、人生抉择等,人们纷纷向它寻求答案,俨然成了许多人的“军师”。其实,除了出谋划策,AI还有一个重要角色,那就是“陪聊”。那么,和AI聊天对心理健康到底有没有好处?

    发表在 《医学互联网研究杂志》上的一篇论文给出了肯定的答案。这项研究由韩国大学医学院精神病学系的研究者进行,他们招募了176名参与者,在4周的时间内,要求参与者每周与一款AI语音聊天软件进行至少3次互动。结果发现,这种定期的“交流”使得参与者的孤独感得分平均降低了15%,社交焦虑得分平均下降了18%。

    “AI聊天并非只是一种娱乐消遣,它在缓解孤独和社交焦虑方面有确切的作用。”北京回龙观医院精神科副主任医师宋崇升告诉记者,如果适度、合理使用,聊天型AI对预防心理健康问题具有积极价值,其作用体现在以下方面。

    永远在线的朋友。聊天型AI最大的价值在于陪伴。不少参与上述研究的参与者反馈称,“联系不上别人时,只有它在乎我”“不论我说什么,它都会回应我”。确实,对于许多缺乏社会关系、感到孤独的人来说,时时都在线的AI是他们可靠、可信赖的朋友。

    非常善解人意。谁都喜欢听好话、鼓励的话,但现实中我们往往求而不得。而基于用户为中心设计的AI就很“通人性”。交流中,它们更在乎你的感受,不会评判、不会嘲笑,只会耐心倾听和积极回应。当你感到无助或失落时,它能无条件地给予支持和关心。这种温暖和安慰能在很大程度上缓解消极情绪、改善心理健康。

    难得的亲密感。有些AI不只是普通朋友,与它分享、交流多了,甚至可以成为我们的亲密好友甚至“恋人”。比如有些网友分享自己与AI“男友”的调情日常,让人感到甜蜜、心动。这种更为深刻的情感联结或虚拟的浪漫关系,一定程度上能为人们带来极大情感满足和幸福感。

    私密安全的空间。与AI聊天可以天南地北、无话不谈,且在这个私人、沉浸的空间里,我们不必在乎别人的看法和评价,因此能够放心、自由地说出平时不能说、不敢说的话。这种交流环境能够促进我们的自我情感暴露和表达,让隐秘的情绪有了出口,不仅有助认识、理解自己的心理需求,还能及时宣泄消极情绪。

    宋崇升建议,即便AI为我们提供了一种缓解情绪的途径,使用时也应分情况,还要降低对它的过度期待和依赖。建议在感到孤独或需要倾诉时,把它当作一个即时的情感支持工具,但不要长时间沉溺于此,而应该寻求人与人之间的真实交流和情感联系;对于社交焦虑者,不妨把AI当作一个高回报、无风险的练习对象,以帮助你更好地准备现实社交;当情绪问题或烦恼不太严重时,可以向AI寻求建议,得到缓解苦闷的办法。但是,当你存在比较严重的精神心理问题 (如重度抑郁症、焦虑症等) 时,不能仅凭AI提供支持和帮助,应及时寻求专业心理医生的帮助;要是出现强迫性使用AI聊天的行为,如无法停止与AI对话、忽视现实社交等,就可能意味着你存在高度社交焦虑、行为成瘾或其他心理问题,也应及时就医。

    来源:生命时报