AI心理推断能力或与人类相当 但不意味着它们有像人那样的情商
来源:科技日报 / 发布时间:2024-05-23 / 浏览量:821
科技日报北京5月22日电 (记者张梦然)新一期《自然·人类行为》发表论文显示,在测试追踪他人心理状态能力——也称心智理论(Theory of Mind)的任务中,两类大语言模型(LLM)在特定情况下的表现与人类相似,甚至更好。
心智理论对人类社交互动十分重要,是人类沟通交流和产生共鸣的关键。之前的研究表明,LLM这类人工智能(AI)可以解决复杂的认知任务,如多选决策。不过,人们一直不清楚LLM在心智理论任务(被认为是人类独有的能力)中的表现是否也能比肩人类。
此次,德国汉堡—埃彭多夫大学医学中心团队选择了能测试心智理论不同方面的任务,包括发现错误想法、理解间接言语以及识别失礼。他们随后比较了1907人与两个热门LLM家族——GPT和LLaMA2模型完成任务的能力。
团队发现,GPT模型在识别间接要求、错误想法和误导方面的表现能达到甚至超越人类平均水平,而LLaMA2的表现逊于人类水平;在识别失礼方面,LLaMA2强于人类但GPT表现不佳。研究人员指出,LLaMA2的成功是因为回答的偏见程度较低,而不是因为真的对失礼敏感;GPT看起来的失利,其实是因为对坚持结论的超保守态度,而不是因为推理错误。
研究团队认为,LLM在心智理论任务上的表现堪比人类,不等于它们具有人类般的“情商”,也不意味着它们能掌握心智理论。但他们也指出,这些结果是未来研究的重要基础,并建议进一步研究LLM在心理推断上的表现,以及这些表现会如何影响人类在人机交互中的认知。
【总编辑圈点】
情商,就是情绪智力,主要是指人在情绪、情感、意志、耐受挫折等方面的品质。有时候,我们不知道如何回复上司的一句“辛苦了”,亲戚的一句“你这工作能挣多少”,也会求助大模型,希望这凝聚了人类智慧的语言模型能给出一些缓解尴尬或令人愉悦的建议。但大模型有情商吗?大模型可以表现出有情商的样子,但它显然无法揣测人心的幽微之处,也无法体会出所谓话外有话,这些独属于人类社交互动的复杂之处,大模型还需要进一步学习。
上一篇:识别情绪的大脑回路发现
下一篇:兴化市垛田街道退役军人服务站开办老年智能手机培训班
热门资讯
- 浙江省老龄工作委员会办公室关于印发《2024年浙江省老年人口和老龄事业统计公报》的通知
- 民政部党组书记、部长 陆治原在《机关党建研究》发表署名文章:驰而不息深化纪律建设 为民政事业高质量发展提供坚强保障
- 关爱颈椎,守护“生命之桥”(名医讲堂)
- 夏季也可泡泡脚(中医养生)
- 让长护险照护安稳晚年(无影灯)
- 人社部:个人养老金领取时需要缴纳3%个人所得税
- 关于遏制养老机构重特大火灾事故,国家消防救援局征求意见
- 第七部《康养蓝皮书》将发布
- 聚焦“老年旅游与康养技术”,第七部《康养蓝皮书》出版
- 第七部《康养蓝皮书》将于6月21日在贵州省六盘水市水城区发布
- 第七部《康养蓝皮书》即将发布
- 聚焦“老年旅游与康养技术”,第七部《康养蓝皮书》出版
- 上海国际养老、辅具及康复医疗博览会一瞥
- 日行百分钟,慢性腰痛风险降两成
- 完善数智健康养老服务体系
- 中国人民抗日战争暨世界反法西斯战争胜利80周年纪念活动总体安排公布
- 习近平会见新加坡总理黄循财
- “苏青银龄行动”省际对口援助工作启动
- 北京建成322个社区老年心理关爱点
- 中消协将加强“一老一小”消费权益保护