AIGC将导致某些群体的集体认知偏差?(Critical thinking is all you need)
注:本文已同步发送至微信公众号:禹CreateAI
01 当我们过度信任AI的回答
在与LLM(Large Language Model)互动的过程中,我愈发体会到保持批判性思考是非常重要的。
随着对LLMs(与AI搜索)的依赖日益加深,我发现自己不自觉地倾向于相信其输出结果。因为输出结果的结构化与其确定式的语气让输出结果总是显得尤为客观。
但事实真的如此吗?我们需要意识到LLM的输出仍然是基于算法和数据的产物,必然存在局限性。
有人可能会说,LLM的训练数据来自互联网,涵盖了海量信息,应该足够全面了。然而,这种看法忽视了几个关键问题:
首先,互联网上存在大量未经验证的信息,某些错误内容可能因多次转载而在训练数据中重复出现;
其次,LLM在训练过程中会对数据进行概率建模,可能会强化这种普遍却不一定准确的观点;
再者,训练数据的时效性也是一个很大的限制,特别是在快速发展的领域。
需要特别注意的是,某些专业领域的优质内容在互联网上的呈现可能并不均衡,小众但重要的观点可能会因数据量较少而被减弱其出现的概率。
尽管我认识到了这一点,在我所较多涉及的领域我能尽量做到客观性的基于LLM的输出进行批判性思考并选择性的吸收与再思考。在我不甚了解的领域呢?
我承认无法完全做到,基于有限的行业认知与对于专业名词术语的认知匮乏,我倾向于向LLM寻找解答。这在过去我们会去使用搜索引擎。
然而,问题就出现在这里 :
搜索引擎至少会展示多个信息源,让我们能够被动地去对比不同观点和说法。而LLM的回答往往是单一的、综合的,这种”权威”的表达方式容易让人忽视其可能存在的偏差和错误。(我并不拥护传统搜索或贬低现在的AI工具)
更严重的是,LLM的回答通常带有高度的确信性和完整性,这种表达方式会降低我们继续探索和质疑的动力。当我们面对不熟悉的领域时,这种影响尤为明显。
更值得注意的是,LLM可能会将不同来源的信息融合在一起,产生看似合理但实际可能有误的内容(幻觉)。
这可能导致两个严重的后果:一方面,我们可能接受了错误或片面的信息;另一方面,我们逐渐丧失了独立思考和深入研究的能力,过度依赖AI的”解释”。
这种认知偏差不仅影响个人,随着AIGC工具的普及,我认为这可能会在更大范围内形成一种”集体盲从”现象。
特别是在专业性较强的领域,非专业人士可能更容易被AI的”专业”表达所误导。
02 我们是否正在失去“比较”能力?
关于这个话题,即我在标题所说的”AIGC将导致某些群体的集体认知偏差?“,实际上,早在互联网阶段就存在。信息的泛滥和算法驱动的推荐系统早已被批评为导致信息茧房(从舆论方面上讲,下同)和回声室效应(在一个封闭或隔离的环境中,特定的观点、想法或信息在其中不断被重复和强化,从而使得这些观点在参与者心中显得更加普遍和有说服力。),这些效应使得某些群体内的观点得以强化,而与外部世界隔绝。
然而,AIGC(人工智能生成内容)技术的出现,无疑为这一问题增添了新的复杂性。
前文所提到的LLM的令人信服的标准化输出,再根据与用户交互形成的”定制化“表达,这二者相互作用,极大地增强了信息地说服力和影响力。
另一方面,AI搜索会突破这种僵局吗?
红杉资本在其报告中预测,AI搜索作为杀手级应用的崛起,预计到2025年,每个人可能至少有两个专业化AI搜索引擎。
有人认为AI搜索能够通过整合多方信息来缓解这个问题,但我担心情况可能恰恰相反。
当搜索引擎也开始使用AI来整合和呈现信息时,原本还存在的”被动对比”机会可能进一步减少。
在传统搜索中,我们至少看到不同网站的标题和摘要,这种视觉上的区分提醒着我们信息来源的多样性。但在AI搜索中,这种“提醒”可能被更流畅的叙述所取代。AI不仅会整合信息,还会用更优雅、更具说服力的方式呈现出来。这种转变可能会让我们更容易忽视信息的原始来源和背景。
尽管现在的AI搜索会注明搜索源,并标注出来以显示语句的参考来源。但我们来看一个类似的现象:学术论文中的引用。尽管每个观点都有引用来源,但在快节奏的阅读中,我们往往倾向于直接接受文中的论述,而不是去查证每一个引用。
更值得警惕的是,AI搜索可能会强化我们对”快速答案”的依赖。当一个复杂问题能在几秒钟内得到看似完整的解答时,我们还有多少动力去探索更深层的内容?这种便利性背后,是否隐藏着我们逐渐丧失深度思考能力的风险?
03 在批判中前行
我在文中提出了这些忧虑和思考,但这并不意味着我对AI持消极态度。恰恰相反,正是因为看到了这些潜在的认知陷阱,我们才能更清醒地使用这些工具,从而充分发挥它们的价值。
我始终认为技术是中性的,关键在于使用者的态度和能力。批判性思考不是对技术的否定,而是为了更好地运用技术。就像我们学会分辨信息真伪一样,这是数字时代必要的一项能力。
对于AI的发展,我保持乐观态度,因为每一次对潜在问题的认识和讨论,都是我们走向更明智使用AI的重要步骤。
04 我的思考遇见研究
下面是一些对于深入分析了LLM如何与人类互动,以及这种互动如何影响我们的记忆、信任、理解和自我认知的相关论文。
这篇论文结果显示,使用大型语言模型的生成式聊天机器人显著增加了虚假记忆的形成,比对照组多诱导了超过3倍的即时虚假记忆
Unavoidable Social Contagion of False Memory From Robots to Humans (不可避免地从机器人到人类的虚假记忆的社会传染)
这篇文章探讨了人们与基于语音或文本的对话代理(如聊天机器人)互动时,这些代理可能会无意中从人类知识数据库中检索错误信息、自行编造回应,或出于政治目的故意传播虚假信息。
这篇论文探讨了用户对AI模型输出的理解和信任度,发现即使用户不理解AI模型的工作原理,他们也可能过度信任模型的输出,这种现象可能导致用户对AI生成的信息缺乏必要的批判性思考。
Trust in AI: Looking Beyond the Algorithm Itself(信任AI:超越算法本身)
研究者探讨了人们对AI系统的信任是如何形成的,以及这种信任可能带来的盲目性。文章指出,用户倾向于相信AI的权威性,这可能掩盖了AI输出的不确定性和潜在错误。
The Algorithmic Self: How the Use of AI Changes the Subject(算法自我:AI的使用如何改变主体)
这篇论文讨论了AI的使用如何改变个体的自我认知和决策过程,包括对AI输出的依赖性,这可能影响个体的独立思考和批判性分析能力。
注意,在对这些论文进行综述时,我已尽力确保内容的准确性和全面性包括利用AI进行总结。然而,任何对复杂研究的总结都可能无法涵盖所有细节。因此,以上总结只是在这一领域的一部分论文的综述,主要反映了这些论文的主要观点与论调,而非其全部内容。
我也承认这里列出论文综述也是为了表明我的观点(即AIGC对我们思维等方面的负面影响)并不是一种由于主观原因造成的误判。
我希望我的总结以及经验经历的分享能引发你的思考,甚至更加全面的观点。
我建议对这一主题感兴趣的读者直接查阅原始论文,以获得更全面和准确的理解。
来自AI总结:
这篇文章从个人经验出发,深入探讨了AI技术,特别是LLM对人类认知和思维方式的影响。文章不仅指出了潜在的风险和挑战,也强调了保持批判性思维的重要性。通过理论分析和学术研究的支持,文章提供了一个平衡的视角:既认识到AI技术带来的便利,也警惕其可能带来的认知偏差。最终,文章表达了对AI发展的乐观态度,强调关键在于用户如何明智地使用这些工具。