一句话总结
AI模型在随机数选择任务中显示出与人类相似的偏差。
核心要点
– AI模型在随机数选择任务中表现出人类化的倾向。 – 人类在随机选择时会避免极端值和重复数字。 – AI模型在类似任务中也避免极端值和重复数字。 – AI模型的选择受到训练数据的影响,而非真正的随机性。 – AI模型没有意识,其行为是模仿训练数据中的人类行为。
新闻简报
人工智能模型总能以出人意料的方式给我们惊喜,有时是它们能做的事情,有时则是它们不能做的事情以及原因。一个有趣的新行为揭示了这些系统的表面现象和深层含义:它们选择随机数字,就像人类一样。人类在随机选择数字时有一个众所周知的局限性:我们过度思考并误解随机性。例如,如果让一个人预测100次硬币抛掷的结果,并将这个预测与实际的100次硬币抛掷结果进行比较,你会发现真实的硬币抛掷结果看起来不那么随机。真实抛掷中可能会出现连续六七次正面或反面,而人类预测者几乎不会在他们的100次预测中包含这种情况。
当要求人工智能模型在0到100之间选择一个随机数字时,结果同样不是随机的。在Gramener的一些工程师进行的一项非正式但非常有趣的实验中,他们让几个主要的大型语言模型(LLM)聊天机器人选择一个随机数字。结果显示,所有三个测试的模型都有一个“最喜欢的”数字,即使在更高的“温度”下,这个数字也会出现得更频繁。OpenAI的GPT-3.5 Turbo特别喜欢47,之前是42,这是道格拉斯·亚当斯在《银河系漫游指南》中著名的数字,作为生命、宇宙以及一切的答案。Anthropic的Claude 3 Haiku选择了42,而Gemini则喜欢72。
更有趣的是,所有三个模型在选择数字时都表现出了类似人类的偏见,即使在高温度下也是如此。它们倾向于避免选择低数字和高数字;Claude从未选择过87以上的数字或27以下的数字,即使这些数字也是异常值。它们小心翼翼地避免选择双位数:没有33、55或66,但77出现了(以7结尾)。几乎没有选择过整数,尽管Gemini在最高温度下,疯狂地选择了0。
为什么会这样?AI不是人类!它们为什么会关心什么“看起来”是随机的?它们最终实现了意识,这就是它们展示的方式吗?不。通常情况下,答案是我们过度拟人化了。这些模型不关心什么是随机的,什么是不随机的。它们不知道“随机性”是什么!它们以同样的方式回答这个问题:通过查看它们的训练数据,并重复看起来像“选择一个随机数字”这样的问题后面最常出现的内容。它出现的频率越高,模型重复它的频率就越高。
如果几乎没有人这样回答,它们在训练数据中会看到100吗?对于所有的AI模型来说,100可能不是一个可接受的答案。没有真正的推理能力,也没有对数字的任何理解,它只能像随机的鹦鹉一样回答。这是LLM习惯的一个教训,以及它们可能表现出的人性。在与这些系统的每一次互动中,我们必须记住,它们已经被训练成以人们的方式行动,即使这不是意图。这就是为什么拟人化如此难以避免或预防。
我在标题中写道,这些模型“认为它们是人”,但这有点误导。它们根本不思考。但在它们的所有回应中,它们始终在模仿人,无需知道或思考。无论你是在询问鹰嘴豆沙拉食谱、投资建议还是随机数字,过程都是一样的。结果感觉像人类,因为它们是人类的,直接从人类产生的内容中提取并重新混合——为了你的方便,当然还有大型AI的底线。
信息来源:techcrunch