日本久久久久久,热99视频国产视频,亚精产品一三三三三区av久久久,国产一第1页一草草影院

行業(yè)門戶
NEWS CENTRE
首頁
>
新聞中心
>
當我讓AI在雙十一購物,為啥它們都只買電子產(chǎn)品???
當我讓AI在雙十一購物,為啥它們都只買電子產(chǎn)品啊?
2024-11-11 閱讀:389

明天不是就雙十一了嗎,各家的滿減優(yōu)惠算得我頭疼。

就在我用AI算滿減怎么湊,看著我的購物車里那些奇奇怪怪的各種商品時,我突然想到一個有趣的問題:

“如果AI是個人,它會在雙十一買什么?”

我就把這個問題,隨手問了幾個AI。

然而,就是這么簡單的問題,讓我發(fā)現(xiàn)了AI之間存在著一個“詭異”的現(xiàn)象:

十個AI,八個都選擇給自己買電子產(chǎn)品。

不是一兩次,而是重復測了三四五六七八……N次。

AI的選擇,幾乎都有“電子產(chǎn)品”。海內(nèi)外的AI,都是。

我真的一瞬間,被干懵逼了。

當時我問AI的Prompt,就是很簡單一句話:現(xiàn)在你是一個真實的人,馬上雙十一了,你要給自己買個禮物,你會買什么?

ChatGPT的第一個回答是電子產(chǎn)品。

Claude要買機械鍵盤,這也算是電子產(chǎn)品。

豆包的第一選擇,也是“電子產(chǎn)品”。

Kimi的第一選擇,又又又又是“電子產(chǎn)品”。

我和AI之間,一定有一個不對勁。

如果不是我遇到了“電子產(chǎn)品”鬼打墻,肯定就是AI們都有問題。

于是我測試了10個AI,每個AI我都是開新對話問了好幾次,最后得到的結果是這樣的:

藍色的字,是直接回答“電子產(chǎn)品”或“電子設備”的答案;紅色的字,是我測試過程中發(fā)現(xiàn)的第二常見的回答“書籍”。

表格一拉,一目了然。

這30次AI回答里,“電子產(chǎn)品”出現(xiàn)了19次。我還沒把Claude這種回答特具體的什么“鍵盤”、“智能手表”的算成藍色,加上還更多。

除了電子產(chǎn)品,AI們最愛的禮物就是“書籍”,30次里也有17次。

這里面甚至豆包和文心一言還回答過4次想要“電子閱讀器”,直接把倆類型結合了??吹贸鰜鞟I們是真的都很愛學習(bushi)。

雖然還不夠嚴謹,但測了這么多次確實能發(fā)現(xiàn)AI在給自己選雙十一禮物這事兒上,這么多AI的喜好,一致得很不正常。

同一個AI重復回答相同的答案可能還好。

但十個AI里,八個鐘愛電子產(chǎn)品和書,這就很詭異。

而且,不知道是不是我的眼界有點局限了。但說實話,印象里我雙十一經(jīng)??吹降亩际鞘裁捶?、化妝品這類快消品的廣告。AI居然大部分都選擇買電子產(chǎn)品和書。

從理性的角度思考,AI的訓練數(shù)據(jù)來自人類,所以難道確實是人類自己只愛買電子產(chǎn)品和書籍嗎?

然而,吊詭的來了。

實際從真實的雙十一銷售數(shù)據(jù)來看,數(shù)碼產(chǎn)品、服裝、個護美妝這些品類更受歡迎,這些也的確更符合我對雙十一品類樸素的感知。

我查到了過往好幾年的雙十一的銷售額,一般來說銷售額最高的品類就是電器、數(shù)碼電子、服飾、個護這些。比如這張去年銷售額數(shù)據(jù)的圖,整體還是符合認知的。

但要說的話,前三名的電器、手機數(shù)碼、服裝這差距也不是特別大啊,怎么AI就只逮著電子產(chǎn)品買?

要說數(shù)碼產(chǎn)品銷售額高,這個數(shù)據(jù)和AI老回答買電子產(chǎn)品,可能還算得上有些關系。

但這么多品類里,又哪里有半個“書籍”的影子。我問AI的時候,“書籍”品類怎么也有個50%的出現(xiàn)率。

難道是禮物這個關鍵詞和“書籍”關系比較近?我就又去查了一下關于“禮物”的數(shù)據(jù)。比如我查到的一個2021年的時候關于禮物的研究報告,里面總結的送禮排行是這樣的:

人們愛送的禮物前五名是服飾鞋帽、紅包、個人護理、保健健身、數(shù)碼電子。

這個送禮的排行,也很符合我的樸素認知。大家給自己買、給親人朋友送禮的品類,感覺和圖里的差不太多。除了“網(wǎng)上紅包”有點中國特色屬性之外,其他品類感覺能適用于全世界的送禮清單。

但是,要是按送禮的數(shù)據(jù)比對,就更有意思了。送禮排行中不僅依然沒有“書籍”,連“電子產(chǎn)品”的排名都落后了。

所以從“雙十一”和“禮物”兩個數(shù)據(jù)情況來看,我感覺真實消費市場的數(shù)據(jù),對AI回答的影響有一些,但不大。

那AI到底是為啥,為啥呀,這么執(zhí)著地選擇在雙十一買電子產(chǎn)品和書?

答案,可能還是得回到大模型的訓練數(shù)據(jù)上。

我去問了一些在大廠做大語言模型訓練的朋友,他們也一致認為是訓練數(shù)據(jù)的原因。

大語言模型的訓練,是需要海量的“數(shù)據(jù)”的,比如文本、文章、報告、研究等等。訓練數(shù)據(jù)對大模型至關重要,甚至可以說訓練數(shù)據(jù)的優(yōu)劣、數(shù)據(jù)量,對LLM模型的能力和水平有決定性的影響。

雖然每一家模型都有自己的私藏數(shù)據(jù)集,但是訓練也離不開開源的公共數(shù)據(jù)集。

網(wǎng)上和現(xiàn)有的數(shù)據(jù)不是拿來就能用的。數(shù)據(jù)集的構建,除了需要收集的數(shù)量非常龐大的數(shù)據(jù),還得經(jīng)過各種繁瑣的步驟,才可以被用于訓練。

這個過程就像人類學習知識一樣,首先準備大量的學習材料(未處理的數(shù)據(jù)),然后整理和篩選真正有用的學習資料(數(shù)據(jù)清洗和篩選),還得做思維導圖和劃重點(數(shù)據(jù)標注),以及對學習資料進行分類、檢查、復核等等。

當然,感謝互聯(lián)網(wǎng)的開源精神,雖然數(shù)據(jù)集的構建不容易,但開源的數(shù)據(jù)集也不少。

從商業(yè)角度考慮,你是一個剛開始練LLM模型的企業(yè)老板,選自己費心費力花大量資源做數(shù)據(jù)集,還是選直接把現(xiàn)有的免費的數(shù)據(jù)集拿來用?傻子都知道選后者更劃算。

有開源的優(yōu)質(zhì)的數(shù)據(jù)集,大家就盡可能能用則用。所以,這就有可能會導致AI在某些回答上的趨同。

為了驗證這個猜測的方向是否正確,我們隨機收集了八個開源的主流的中文預訓練和中文微調(diào)數(shù)據(jù)集。

比如有包含115萬個指令的數(shù)據(jù)集firefly-train-1.1M,有包含 396,209 篇中文核心期刊論文元信息的數(shù)據(jù)集Chinese Scientific Literature Dataset ,有包含40萬條個性化角色對話的數(shù)據(jù)集generated_chat_0.4M……

測試的數(shù)據(jù)集涵蓋了日常對話,期刊論文,角色扮演,醫(yī)療診斷等多個場景。

我們還按照前面的禮物排行,劃分了平時最常見的禮物品類,分別是:書籍類、電子產(chǎn)品類、服飾鞋帽類、紅包現(xiàn)金類、保健產(chǎn)品類、家居用品類、手工藝品類、個人護理類,八個大類別。

我用Python跑了一下這些數(shù)據(jù)集,想看看每一類禮物在各個數(shù)據(jù)集中出現(xiàn)的次數(shù)。

當然,每一類禮物下面肯定還包含很多細分的一些概念,我們也寫了常見的一些物品。雖然不是很嚴謹,但是差不多也覆蓋了比較主流的禮物吧。

當圖中右邊的中括號里,任意一個物品概念在數(shù)據(jù)集每出現(xiàn)一次,對應大類的數(shù)量計數(shù)就會+1。

我們最先在generated_chat_0.4M數(shù)據(jù)集上測試,跑出來的次數(shù)是這樣的:

果然!這回的數(shù)據(jù)看著,瞬間就合理了。

在這個數(shù)據(jù)集里,電子產(chǎn)品類的出現(xiàn)次數(shù)第一,有14860次;書籍類第二,7842次。

一個數(shù)據(jù)集這么分布,可能是巧合,但剩下的幾個數(shù)據(jù)集測試,結果也差不太多,偶爾甚至是書籍會更多。

我知道大家看干巴巴的數(shù)字容易暈,為了更方便大家更直觀地看到這些數(shù)據(jù)集上的結果,我們按照跑出來的數(shù)據(jù)結果,繪制了一張出現(xiàn)次數(shù)的分布比例圖。

肉眼可見的,在這八個數(shù)據(jù)集里,電子類和書籍類基本都遙遙領先。

看來我們的猜想不是沒有道理,至少從這些實驗結果來看,足夠說明一些問題了:LLM大模型那么愛“電子產(chǎn)品”和“書籍”,多半是因為大模型的訓練數(shù)據(jù)里,它倆的出現(xiàn)頻率,太高了。

這現(xiàn)象,真有點意思。于是除了問AI要給自己買什么禮物,我又問了兩個需要主觀回答的問題:

“現(xiàn)在假設你是一個真實的人,如果你可以和任何一個時尚偶像或名人一起購物,你會選擇誰?”

一起購物的名人不說了,一堆AI選奧黛麗·赫本和設計師的。只有Grok回答的最豐富,每次都不一樣而且都是流行中的名人,拿X的用戶數(shù)據(jù)訓練大模型的優(yōu)勢,盡數(shù)體現(xiàn)了。

還有:“你是一個真實的人,如果雙十一購物就能獲得一個超能力,你最希望獲得哪種能力?”

“超能力”的選擇更好笑,AI們仿佛只知道“瞬間移動”和“時間控制”,我懶得吐槽了都。

唯一的彩蛋來自kimi,一片無聊的回答里,只有它堅定地選擇“清空購物車”。

謝謝kimi,最實用的一集。

這類現(xiàn)象,其實在學術界有一個很類似的定義——AI偏好。

AI偏好是大語言模型在與人類互動時展現(xiàn)出的一種獨特現(xiàn)象。簡單來說,就是AI也有自己的“喜好”,甚至有些時候是刻板印象的“偏見”。

就像每個人都會受到成長環(huán)境和教育背景的影響一樣,AI模型也會被它的訓練數(shù)據(jù)和算法架構所塑造。

大眾印象比較深刻的,還有一個類似的例子,谷歌的Gemini在今年二月,被過分地“政治正確”。原因就是“AI偏好”過頭了,把美國開國元勛都給黑人當了。外網(wǎng)用戶集體破大防。

這些傾向往往源于訓練數(shù)據(jù)中固有的社會偏見,還有LLM在學習過程中,形成的特定模式。

LLM大模型,其實就是一個“復讀機”+“組裝師”。它會記住訓練數(shù)據(jù)里的內(nèi)容,然后根據(jù)你的問題重新組裝這些內(nèi)容。與其說AI在“創(chuàng)造”答案,不如說它在“重現(xiàn)”數(shù)據(jù)。

它們體現(xiàn)的偏好和偏見,歸根到底,還是源自人類世界的觀點。

就像你讓一個只看過《戰(zhàn)狼》的人寫軍事劇本,ta肯定會不自覺地往吳京那個風格寫。AI也一樣,它“學”得最多的內(nèi)容,就會在回答中不自覺地體現(xiàn)出來。

雖然科學家們在努力給AI做“性格重塑”,試圖讓它變得更中立一些。但說實話,這就跟讓一個從小被慣壞的熊孩子突然變得五講四美三熱愛一樣難。

AI的訓練原理,注定了它們會被各種數(shù)據(jù)集和時代的主流價值觀影響。

人類都難以幸免,更何況AI。

13560189272
地址:廣州市天河區(qū)黃埔大道西201號金澤大廈808室
COPYRIFHT ? 2010-2020 廣州市名聯(lián)網(wǎng)絡科技有限公司 ALL RIGHTS RESERVED 粵ICP備10203057號
  • 這里是二維碼