▲ 点击上方蓝字关注CellPress细胞科学 ▲
生命科学
Life science
Cell Press细胞出版社旗下Trends in Cognitive Sciences期刊很高兴推出本期专题,聚焦于大语言模型(LLMs)及其对理解语言、认知和社会的影响。本合集精选的文章从多个角度展开讨论,涵盖了LLMs中形式语言能力与功能语言能力的区别、具同理心的AI对社会的影响以及LLMs在应对虚假信息中的挑战等话题,每篇文章都进一步加深了我们对LLMs与人类认知功能关系的理解。希望这些文章能为您带来启发,并引导您思考它们在人工智能迅速发展的背景下的意义。如果您对于认知科学领域的前沿综述有任何想法,欢迎通过电子邮件tics@cell.com与我们联系。
有兴趣在Trends in Cognitive Sciences发表您的综述文章?请扫描提交论文提案 (presubmission inquiry)。
大语言模型(LLMs)与错误信息的制度化
ChatGPT等大语言模型(LLMs)上充斥着网络上的各种信息,包括正确的和错误的。心理科学认为,这些信息精心制作和传播的方式会使人们倾向于认为这些信息是正确的。更进一步,随着人们将其中的错误信息(misinformation)再次传播到互联网上,新兴的LLMs将会采纳这些信息,并将其反馈到其他模型中。来自新西兰怀卡托大学的Maryanne Garry及同事发表观点文章,认为错误信息在LLMs中的更迭意味着我们或许会失去能够帮助我们分辨真实与虚假信息——即进行“现实监控”——的能力。如果这种情况发生,错误信息将成为我们进行规划、决策和投票的基础,而我们将失去对机构和他人的信任。
▲长按识别二维码阅读论文
自然思想与人工思想进行的思维学习
传统的学习通常涉及对外部的新观察,但学习也可以通过自我解释、心理模拟、类比比较和推理等思维过程发生。人工智能(AI)的最新进展表明,通过思维方式进行的学习并非人类心智所独有:人工心智同样能够通过“思维学习”(learning by thinking,LbT)的过程来自我纠正并得出新结论。如何通过思维中的已有元素来产生新知识呢?来自美国普林斯顿大学的Tania Lombrozo发表综述文章,充分讨论了这一“悖论”,并强调了自然思维和人工思维的一个重要特征——为了在不确定的环境中应对多变的目标,资源有限的思维必须“按需”构建知识表征,而“思维学习”的方式支持这种构建过程。
▲长按识别二维码阅读论文
大语言模型中语言与思维的区分
迄今为止,大语言模型是所有模型中最接近掌握人类语言的模型,但关于LLMs的语言和认知能力的观点仍旧存在分歧。来自美国得克萨斯大学奥斯汀分校的Kyle Mahowald及同事发表综述文章,通过区分形式语言能力(对语言规则和模式的知识)和功能语言能力(在现实世界中理解和使用语言)对LLMs进行了评估。对这两种能力进行区分的基础源自人类神经科学,研究表明,人类的形式语言能力和功能语言能力依赖于不同的神经机制。研究者发现,尽管LLMs在形式能力方面有超越预期的出色表现,但在功能能力任务上的表现仍不稳定,通常需要针对专门问题进行微调和/或与外部模块结合。作者认为,使用语言的模型必须掌握这两种能力类型才能表现得接近人类,而这可能需要针对形式与功能语言能力分别出现专门的机制。
▲长按识别二维码阅读论文
从任务结构到世界模型:LLMs知道什么?
大语言模型在何种意义上拥有知识?为了回答这个问题,来自美国耶鲁大学的Ilker Yildirim和L.A. Paul发表观点文章,赋予了LLMs“工具知识”(instrumental knowledge)的概念,即通过使用下一词生成作为工具所获得的知识。作者探讨了工具知识与人类展现的普通“世俗知识”(worldly knowledge)之间的关系,并借用了认知科学中“世界模型”(World Model)的概念,探索了工具性知识能在多大程度上融入结构化的世界模型。作者讨论了如何使LLMs恢复结构性世界模型并得出世俗知识,并提出了两个来自认知科学的资源合理性框架——推理网络和目标条件世界模型——作为工具知识和世俗知识进行重叠或连接的有希望的形式化方法。最后作者指出,对这个问题的回答超越了特定人工智能系统的能力,挑战了关于知识和智能本质的假设。
▲长按识别二维码阅读论文
将大语言模型作为人类文化的压缩算法进行研究
大语言模型会提取并再现其训练数据中的统计规律。来自美国威斯康星大学麦迪逊分校的Nicholas Buttrick发表短评文章,提出研究人员可以利用LLMs来研究这些训练数据中(即开放的互联网)所编码的概念关系,这一途径或许为理解人类沟通中所蕴含的大量文化差异提供了一个绝佳机会。
▲长按识别二维码阅读论文
赞扬具有同理心的人工智能
来自加拿大多伦多大学的Michael Inzlicht及同事发表短评文章,探讨了具有同理心的人工智能(AI)对社会的影响,并针对人工智能看似具有同理心的表达会如何影响人们的感受进行了分析。作者特别指出,AI能够模拟人类的同理心,同时不带有困扰人类的偏见,这是AI的独特能力。尽管AI在表达同理心方面仍旧存在严重陷阱,但作者认为AI表达同理心的能力可以改善人类福祉。
▲长按识别二维码阅读论文
生成意义:主动推理与被动AI的范围和局限
关于感知行为的经典理论将大脑描述为有机体与世界互动的生成模型,这一模型与当前生成人工智能(AI)的进展惊人地相似。然而,由于生物体需要控制有目的性、维持生命的感觉运动互动,因而生物体的生成模型与身体和世界紧密联系,且必须捕捉并控制行为的感官后果,这与生成AI系统学习的被动模型非常不同。生物体的生成模型使得具身代理能够以不断验证其最佳模型的方式干预其世界,这种模式提供了一个坚实的基础,对于真正理解的发展至关重要。基于此,来自意大利国家认知科学与技术研究所的Giovanni Pezzulo及同事发表观点文章,总结了生物体的生成模型产生的影响,并探讨了生成式AI未来的发展方向。
▲长按识别二维码阅读论文
大语言模型应该模拟什么?
大语言模型(LLMs)是否构成了人类处理语言的计算模型?如果是,那么(心理)语言学理论在理解人工与生物心智之间的关系中扮演了什么角色?来自美国加州大学洛杉矶分校的Idan A. Blank发表短评文章,指出上述问题的答案取决于对LLMs的解释方式,将LLMs认知为神经过程的抽象模拟或是对人类思维的模拟,不同立场之下,LLMs及其所体现的理论如何与传统(心理)语言理论相互作用有着不同的含义。
▲长按识别二维码阅读论文
缩小大语言模型与儿童之间的数据差异
大语言模型展现出了有趣的“涌现”行为(emergent behaviors),但这一表现的前提是,其接收的语言数据量大约是儿童的四到五个数量级。是什么导致了这种样本效率的巨大差异?哪些因素可以解释人类学习者远高于LLMs的学习效率?来自美国斯坦福大学的Michael C. Frank发表短评文章,提出儿童与LLMs之间巨大数据样本差异的可能解释包括:儿童预先存在的概念知识、使用的多模态基础以及儿童输入的互动性和社会性特征。
▲长按识别二维码阅读论文
AI语言模型能否取代人类参与者?
最近的研究表明,像GPT这样的语言模型可以在多个领域做出与人类相似的判断。来自美国北卡罗来纳大学的Kurt Gray及同事发表短评文章,探讨了语言模型是否以及何时可以在心理科学中取代人类参与者。作者回顾了该领域的初步研究,提供了一个理论模型,并概述了使用AI作为参与者的注意事项。
▲长按识别二维码阅读论文
请扫描阅读Trends in Cognitive Sciences精选丨大语言模型:语言、认知与社会
推荐阅读
孔祥祯/蒲艺团队Trends in Cognitive Sciences文章 | 神经影像数据科学揭示大脑整体非对称性
▲长按识别二维码关注细胞科学
点击 阅读原文 阅读全部精选文章