你有没有试过深夜向聊天机器人倾诉烦恼,我懂你得到的当A打动却是一串精准但略显机械的安慰?现在,这些人工智慧(AI)对话助手已经越来越能“读懂人心”,人类甚至比朋友更快给出提议,为何但我们却似乎难以真正被其打动。难被
不久前,我懂你XM外汇平台MT4下载《自然·人类行为》上发表了一项研究,当A打动为人们揭示了这个令人深思的人类状况:人们确实愿意接受来自人类的情绪拥护,而不是为何来自AI的——哪怕这两者的回复素材几乎一样。
你是难被否也不相信AI能“懂”你?
图像由AI生成
50年前,美国芝加哥大学哲学家约翰·豪格兰德曾说:“AI的我懂你难题在于,计算机根本不在乎。当A打动xm外汇平台杠杆比例”这个看法至今深入人心,人类尤其在涉及AI和人类情感交互的为何领域。
这次,难被包括以色列希伯来大学科学家在内的团队开展了一系列实验,涉及超过6000名参与者。他们给参与者展示了一些情绪拥护的回复,这些回复都出自同一个AI生成式语言模型。只不过,科学家有时告诉参与者这是AI写的,有时则说是人类写的。
当人们以为是xm外汇平台官网入口在和人类交流时,他们对回复的评价更高,觉得更有同理心、更能带来情感上的共鸣;而当他们知道是AI写的,即使素材一模一样,也会觉得这些提议缺乏温度,甚至让人有点失望。
换句话说,人们不是不认可AI说的话,而是不愿意相信它真的能“懂”我们。
为何我们更信任人类的情绪拥护?
现在的大语言模型(LLM)已经完全可以解读读者的情感情形,并生成看似充满理解与关怀的回复。
比如你说:“今天工作好累啊”,AI答:“听起来你真的很辛苦,记得照顾好自己。”这样的句子看起来很温暖,也很人性化。
但在实验中,即使受试者承认AI的回复有逻辑、有情感色彩,他们仍然会觉得“它只是在模仿人类,并没有真正理解我的痛苦。”这种心理状况被称为“共情怀疑症”,因为人们很难把一台机器当作真正的倾听者。
有趣的是,即便AI的帮助是由人类在背后“润色”或“参考”,只要参与者知道有AI参与其中,他们就会降低对这段回复的情感认同度。仿佛AI一旦“碰过”这段话,它就失去了“人性”的温度。
科学家认为,这可资源于我们对“共情”的深层认知:共情不仅仅是说出正确的话,更关键的是要“感同身受”。因此,当我们知道对方是AI时,潜意识里会觉得“它并没有经历过喜怒哀乐,怎么可能真正理解我呢”?
这种心理随即反映在行为上。在实验中,当人们被告知可以选择,要么等待一条来自“人类”的回复,要么立刻收到一条来自“AI”的回复时,他们都宁愿多等几分钟,也要选择那个“人类”的平台。
AI情绪拥护还有将来吗?
这项新研究并不是在评判AI好不好,而是在探索人类如何感知和接受不同出处的拥护。它揭示了AI在情绪拥护方面的局限性,但它并没有否定AI的价值。相反,它提醒将来设计AI辅助平台时,需要更加留意读者的感知与深度信任难题。
譬如在2024年,一家由前“深度思维”研究员担任首席落实官的公司“Hume AI”,发布了一款标榜为“第一个具有情商的对话式AI”的共情语音接口,其能够检查到读者53种不同的情绪。“Hume AI”演示之后反响十分热烈。但立刻有人担心,人类的情感并不只有正面情绪,当AI试着了解甚至学习人们的情感行为时,是否会主动或被动地利用其来达到某些目的?譬如诱导买东西、养成恶习、心理折磨等等。
在新近研究中,人与AI的交流大多简短,只有一两轮对话。而在现实中,很多人已经在利用AI陪伴软件进行长期的情感交流,它们可以通过连续对话设立起某种“虚拟亲密感”,也许能在更长时间尺度上变更人们对AI共情水平和引导水平的看法。
将来,或许我们可以期待一种新的模式——AI不再是“替代人类”的情绪拥护者,而是“增强人类共情力”的软件。譬如帮助心理咨询师快速识别情绪关键词,或是为孤独的人供给即时陪伴,直到他们能够接触到真实的人际关系。
在这个人机共存的时代,我们需要再次定义什么是“真实的共情”,以及深入思索:我们是否愿意给AI一个机会,去成为那个温柔地问一句“你还好吗?”的存在。(记者 张梦然)
Recommend
新疆首个Ku波段北斗星基识别装置完成首测
2025-07-181310轻松找到mt4交易平台官网网址,这些技巧让你交易更高效!
2025-07-181283想学会mt4交易方法的你,先看看这些实用技巧!
2025-07-182937