[现在的观点]◎记者张曼甘兰(Zhang Menganran)试图在深夜与聊天机器人交谈,但是您是否获得了一系列准确但机械方的便利?如今,对话中的人工智能情报(AI)助手将进一步“理解人们的心”,甚至比朋友更快地提出建议,但我们似乎并没有真正地提出建议。以前,一项以人类行为性质发表的研究揭示了这一想法令人惊讶:人们真的愿意得到人们的情感支持,而不是来自AI的情感支持,即使两者的反应几乎相同。您还不相信AI可以“理解”您吗? 50年前,芝加哥大学的哲学家约翰·霍林(John Hawling)说:“ AI的问题是计算机不在乎。” Athis的观点仍然深深植根于人们的心中,尤其是在人工智能与人之间的情感关系领域。
目前,一群来自以色列的科学家,包括科学家来自希伯来大学的S进行了一系列涉及6,000多名参与者的实验。他们向参与者展示了对情感支持的一些反应,所有这些都来自同一AI生成语言模型。但是,科学家告诉参与者AI写了它,有时他们说人们已经写了它。当人们认为他们正在与人交谈时,他们会对反应进行更高的检查,感觉更善良和情感共鸣。而且,当他们知道它是由AI撰写的,即使内容完全相同,他们会感到这些建议缺乏热量甚至失败。我们为什么相信人类的情感支持?当前的大语言模型(LLM)可以充分研究用户的情绪状态,并提出看似可以理解和充满爱意的反应。例如,如果您说“我现在很累”,AI回答:“您真的很艰难上尉,记住要照顾好自己。”这样的句子看起来非常温暖和人性化。但是,即使受试者承认AI的反应是逻辑和情感的,他们仍然感到“只是模仿人们,并不理解我的疾病。“这种心理学现象”被称为“同情心”,因为人们很难将机器视为一个真正的触感,甚至是一个人,甚至是一个人,甚至是一个人,或者是一个人,或者是一个人,甚至是一个人,或者是一个人,或者是一个人,或者是一个人,甚至是一个人,或者是一个人,甚至是一个人,'''''''''''''''只要参与者知道AI参与其中,他们将减少对这一反应的情感认识,一旦AI“接触”了这段话,“人类”就会失去热量。没有经历过喜悦,愤怒,悲伤和哈普富裕,我们该如何真正理解我?消息来源。 53种不同的情绪用户。在“休ume AI”展示之后,回应是热情的。但是,有些人立即记得人类的情绪不仅是积极的情绪。当AI试图理解甚至了解人们的情感行为时,它是活跃还是仅仅使用它们来实现某些目标?例如,刺激购物,养成不良习惯,心理酷刑等。在最新研究中,人与人工智能之间的大多数关系都短,只有一两个对话。实际上,许多人将AI伴侣应用用于长期情感交流。他们可以通过继续进行交流来建立特定的“虚拟假设”,这可以改变人们在更长的时间内对AI的同理心和指导能力的理解。将来,也许我们可以期待一个新的模型 - AI不再是“替代人”的灵活节支持者,而是一种用于“增强人类同理心”的工具。例如,帮助心理顾问迅速认识到情感关键字或省与悲伤的人立即融合,直到他们与真实的关系互动为止。在人类计算机团结的那个时代,我们需要重新定义什么是“真正的同情心”,并深入思考它:我们愿意给AI一个温和的问题“你好吗?”