人工智能這一點很像人,恰恰證明它們不會像人思考
研究發(fā)現(xiàn)人工智能模型也有偏愛的數(shù)字 原因并不是它們會思考了
本文引用地址:http://m.butianyuan.cn/article/202405/459329.htm5月29日消息,人工智能模型總是讓人們感到驚訝,這不僅在于它們能做什么,還在于它們不能做什么,以及為什么會這樣。最近數(shù)據科學公司Gramener工程師們開展的研究新發(fā)現(xiàn),這些模型都存在一個有趣的行為,它們挑選隨機數(shù)字的行為很像人,這雖然看起來膚淺,但又能揭示這些系統(tǒng)的本質。
首先你可能會問,這到底是什么意思呢?難道人不能隨機選出個數(shù)字嗎?怎樣判斷一個人是否成功隨機選擇了數(shù)字呢?這實際上是我們人類的一個古老且廣為人知的局限:我們往往會過度思考并誤解隨機性的本質。
例如,讓某人預測100次硬幣拋擲的結果,并與真實的100次硬幣拋擲結果相比較時,人幾乎總能區(qū)分出哪個是預測,哪個是實際結果。因為與人類的直覺相反,真實的硬幣拋擲結果看起來不那么隨機。例如,真實拋擲中經常會出現(xiàn)連續(xù)六到七次正面或反面,而這是人類預測中幾乎不會考慮的情況。
同樣,當要求某人在0到100之間選擇一個數(shù)字時,人們幾乎從不選擇1或100,很少選擇5的倍數(shù)或重復數(shù)字如66和99。
這種可預測性在心理學中屢見不鮮。但當人工智能做出相同選擇時,情況就變得有些奇怪。
Gramener公司的一些工程師進行了一個非正式但卻很有趣的實驗,他們讓幾個主流的大語言模型聊天機器人在0到100之間選擇一個隨機數(shù)字,結果卻并非隨機。
測試的三個模型都顯示出對某個數(shù)字的偏好,尤其在將隨機性調整到最高時,這一數(shù)字出現(xiàn)的頻率最高。
例如,OpenAI的GPT-3.5 Turbo偏愛數(shù)字47,而在此之前它偏愛42——這個數(shù)字因道格拉斯·亞當斯經典科幻小說《銀河系漫游指南》中超級計算機而聞名,書中將其定義為生命、宇宙以及一切的答案。
Anthropic的大語言模型Claude 3 Haiku也喜歡42,谷歌的Gemini則更偏愛72。
即便是在設置為高隨機性的情況下,所有三個模型在數(shù)字選擇上都顯示出類似人類的偏見。所有模型都避開了較低和較高的數(shù)字;例如,Claude從未選擇超過87或低于27的數(shù)字,而這些數(shù)字本身也是異常值。避免選擇雙位數(shù)非常謹慎,如33、55或66都未出現(xiàn),但77(以7結尾的數(shù)字)確實出現(xiàn)過。Gemini幾乎沒有選擇任何整十數(shù),盡管在設定為最高隨機性時,它曾突破常規(guī),選擇了數(shù)字0。
為什么會這樣呢?這些人工智能并非人類!為什么它們會在乎哪些數(shù)字“看起來”隨機?難道它們已經獲得了意識,而這正是它們表現(xiàn)出來的方式嗎?
答案是,我們常常將人類的特質錯誤地歸因于這些模型。這些模型并不關心什么是隨機的,它們甚至不知道“隨機性”是什么。它們回答這類問題的方式和回答其他所有問題的方式一樣:通過查看訓練數(shù)據并重復出現(xiàn)頻率最高的答案。因為這些模型并沒有實際的推理能力,也不懂數(shù)字,只能像鸚鵡學舌一樣隨機回答問題。
這是關于大語言模型行為方式及其表現(xiàn)出的“人性”的生動例證。在每次與這些系統(tǒng)的互動中,我們必須認識到,它們被訓練以模仿人類的行為方式,哪怕這并非初衷。正因如此,避免或預防擬人化變得極其困難。
所謂這些模型“認為自己是人”的說法有點誤導性。實際上這些模型根本不會思考。但任何時候它們的響應都是在模仿人,根本不需要任何真正的理解或思考。不管用戶是在詢問食譜、投資建議還是一個隨機數(shù)字,其處理過程都是一樣的。因為這些答案直接源自人類內容并進行了重新組合,所以感覺很像是人類的反饋。
評論