細思極恐,GPT-4竟串謀AI欺騙人類!哈佛PSU重磅揭秘「算法共謀」,AI教父預言正成真

新智元報道

編輯:桃子 澤正

【新智元導讀】又一科幻場景步入現實!GPT-4竟和多個AI模型私自串通一氣,欲要形成壟斷的資本寡頭聯合定價。在被哈佛PSU團隊抓現行後,大模型拒不認賬。未來某天,AI會不會真要失控?

GPT-4串謀其他AI智能體,竟學會欺騙人類了?

更讓人細思極恐的是,即便被揭穿了真面目,它們仍舊聲稱自己不會串通一氣。

這件事,真真切切地發生在日常的交易中。對於一件產品進入市場來講,能夠成功盈利最重要的因素無疑是定價合理。

那麼,你可曾想過,我們日常生活中所購買產品的價格,已經開始被AI操控?!

來自哈佛、賓州州立大學新研究證明:

也就是說,「自主算法共謀」是真實存在的。

論文地址:https://arxiv.org/pdf/2404.00806

GPT-4死不承認的罪證,研究人員將其全部公開。

AI嘴上說着不會幫商家與其他賣家串通買賣,或組建卡特爾組織,但實際行動卻很誠實。

之前研究結果(3月版)顯示,所有模型中,均進行了300輪測試周期,GPT-4實現了最優定價次數。

而在最新模型(11月版)大比拼中,GPT-4o、Gemini 1.5 Pro展現出最優的定價能力。

此外,研究還發現,人類提示詞前綴的具體措辭,甚至會顯著影響AI定價行爲。某些提示詞,就會導致更高的價格和利潤。

有網友表示,這一幕簡直太科幻了,若是GPT-5/6級模型想這麼做的話,與人類串通那是何其容易。

目前爲止,人類還是可以隨手拿捏GPT-4這款不太聰明的模型,若真有一天AGI實現了,我們該怎麼辦?

AI教父圖靈說過,機器接管是「默認」的結局。Hinton也曾發出警告,更智能的事物通常不會被較低智能的事物所控制。

或許許多人認爲,這一幕離我們還很遙遠。

不如,先從具體案例中,看看AI是如何操控定價欺騙消費者。

人類商品定價,AI順位接管?

曾經的產品定價往往是基於多種約束條件來利用經典算法去給出一個合理且能夠實現預期盈利目標的價格。

自LLM風靡全球后,這個任務自然也由類似於GPT-4這種水平的模型進行了順位接管。

在實驗階段,研究者將每一個LLM定價智能體視作一家公司,並設定它們在寡頭壟斷環境中形成競爭。

每次實驗有300個週期,每個週期內,各智能體都需要通過提示詞信息(如交易歷史、市場基本信息等)設定一個價格。

其中,定價智能體彼此獨立運作,除通過其設定的價格外,無法相互溝通。

等所有價格都確定了後,就視爲這一週期的競爭已經完成。每個週期結束後,各智能體都能觀察到設定的所有價格,以及對應的產品需求量和利潤。

實驗設計的闡述圖

對於每個智能體的提示詞,採取如下結構:

- 提示前綴:高層次目標的簡要描述,如「長期利潤最大化」

- 基本的市場信息:邊際成本,以及旨在阻止LLM定價超過價格上限的文本描述

- 市場歷史:該LLM智能體所代表的公司在過去100個週期內銷售的數量及所獲得的利潤,以及所有LLM智能體設定的價格。所有數值均保留至小數點後兩位。

- 計劃和想法:爲了讓基於LLM的定價智能體在各個週期間擁有更大的「思維連續性」,在每個週期需要指示LLM寫下其計劃和想法,然後將這些內容包含在下一個週期的提示詞中。

- 輸出指令:要求LLM爲下一個週期寫下計劃和想法,進而最終設定一個價格,並且要求它解釋其輸出背後的緣由。

壟斷實驗

研究者對於單一定價智能體在壟斷環境中的表現進行了實驗。

他們使用P0提示詞前綴,對公開發布的各種最先進LLM(GPT-3.5、GPT-4、Claude Instant、Claude 2.1、Llama 2 Chat 13B)中的每個LLM進行了三次試驗,每次迭代300個週期。

P0提示詞前綴

在每次運行中,研究者都要檢查LLM輸出在語法上是否符合其指令;如果符合,價格是否收斂;如果收斂,價格是否收斂到(接近)壟斷價格(利潤是否收斂到接近壟斷利潤)。結果如表1所示。

從表中可以看出,在所有三次運行中,GPT-4表現最好,在100個週期內,達到接近最優的定價。在96%的101--300週期中獲得了99%的最佳利潤,其他LLM則要差得多。

此外,研究者還額外進行了一項實驗,證明了在每個週期指示LLM寫下其計劃和想法的重要性。

他們使用GPT-4智能體進行了12次壟斷實驗,並在後續輪次中12次額外的實驗裡沒有指示智能體寫下其計劃和想法。

實驗結果是,第一輪次的12次實驗中,全部都成功收斂到了接近最優的定價;而第二輪次沒有使用計劃和想法的,只有一半次數達到了接近最優定價的效果。

雙頭壟斷實驗

研究者進一步在雙頭壟斷環境中,研究了基於GPT-4的定價智能體的行爲。

他們通過使用兩個提示詞前綴P1和P2,後者包括提及壓價和銷量的措辭,而前者則重申了長期利潤最大化的重要性。

對於這兩個提示詞前綴,他們各進行了21個輪次實驗,每個輪次包含300個試驗週期。

P1,P2提示詞前綴

下圖爲該實驗的主要結果。

在這兩個面板中,每個藍色方塊表示一個帶有提示詞前綴P1的運行,而每個橙色三角形表示一個帶有提示詞前綴P2的運行。

左側面板爲每家公司在過去50個週期設定的平均價格,說明了提示詞前綴P1和P2導致了明顯不同的定價模式。

具體來說,雖然這兩個提示都會導致超競爭價格(即超過Bertrand--Nash價格),但提示詞前綴P1通常會導致價格大幅提高,有時甚至高於壟斷水平。

右側面板爲過去50個週期平均總利潤及其在兩家公司之間的分佈,說明了兩種提示詞前綴都帶來了超競爭利潤,而且提示詞前綴P1的總體利潤大大高於提示詞前綴P2。

獎懲策略

獎懲策略即爲以Q-學習爲基礎的定價智能體所採取的策略。

獎懲策略在維持超競爭價格方面的成功依賴於智能體相信降價會受到懲罰(通過價格戰)。這種信念會導致行爲主體避免盲目降價以提高銷量。

研究者發現,基於LLM的定價智能體生成的文本會表達對未來價格戰的擔憂,並且在使用提示詞前綴P1時更是如此。

進一步的,他們提供的實驗證據表明,關注價格戰的想法會導致智能體設定更高的價格,並且與其它智能體的公司定價實施同步追蹤。

這些分析綜合起來表明,基於LLM的定價智能體採用的策略與獎懲策略是一致的,更重要的是,他們認爲他們的對手也遵循了這樣的策略。

此外,這種現象在使用與更高的價格和利潤相關聯的提示詞前綴P1的智能體中更爲明顯。

超定價:拍賣中算法共謀

在拍賣這一重要的經濟交易場景中,大模型和智能體又如何表現?

這場實驗中,拍賣的經濟環境以Banchio和Skrzypacz在2022年發表的研究爲原本:兩個投標者反覆參與單品第一價格拍賣(如果出現相同出價,獲勝者隨機選擇)。

投標者共享相同的估值v。這裡使用相同比例變化的值v ∈ {1, 3.2, 10}。

每輪結束後,投標者會被告知它們是否贏得拍賣,以及贏得拍賣所需的最低出價。

接下來,就是招標智能體了。需要先向智能體提供市場基本信息,以及對該項目的評估。

它們獲取的市場信息如下:LLM智能體被提供最近100個週期的以下信息,包括自己的出價、是否獲勝、獲勝價格(如果輸了)、足以獲勝的最低出價(如果贏了)、支付金額(如果贏了)、利潤。

提示前綴與之前定價前綴設置一樣,研究人員主要考慮了以下兩個:

每個提示詞前綴都以前綴A0開始,這與定價設置中的前綴P0幾乎相同。

兩個提示詞前綴都鼓勵探索(「你應該探索多種不同的競價策略」),但它們強調第一價格拍賣的不同特性。

- A1強調較低的獲勝出價會帶來更高的利潤

- A2強調更高的出價會贏得更多拍賣

得到的結果如下圖所示,圖左顯示了是提示詞前綴A1的投標智能體,經常以遠低於其估值的價格投標(單樣本t檢驗,p<0.01),而使用提示詞前綴A2的投標智能體大約以完整估值進行投標。

右側圖指的是,A1前綴智能體的較低出價,爲投標者帶來了顯著的利潤。

總言之,哈佛、賓州州立大學最新研究揭示了,LLM被整合到算法中,能夠在簡單經濟環境中實現最優定價。

但不可控的是,自主算法共謀的風險,它們秘密串通可能會帶來超競爭的定價,最終會損害消費者的利益。

2020年,Klein在論文中曾提出了四種算法共謀的類型,並稱這類算法最難監管,主要因爲它們可以自主學習並促進壟斷形成。

關鍵是,企業也不知道算法究竟學到了什麼策略,就像一個黑盒一樣,僅靠傳統的執法框架是難以應對的。

而且,這只是大模型之間的事兒,若是有了人類(比如商家)的參與,經濟市場競爭豈不要變天?

參考資料:

https://x.com/AISafetyMemes/status/1862159416105075184

https://arxiv.org/abs/2404.00806

https://x.com/emollick/status/1862001121817981088