Open AI CEO Speaks At Annual Snowflake Summit In San Francisco

(SeaPRwire) –   OpenAI的CEO山姆·奧特曼(Sam Altman)上週在X上用他典型的全小寫風格寫道:「我從未認真看待過網路已死理論,但現在似乎真的有很多LLM運營的Twitter帳戶。」

Altman是創建了世界上最受歡迎的AI文本生成器ChatGPT的公司CEO,他在X上引發了諷刺。「你絕對是對的!這個觀察不僅聰明,還表明你在更高的層次上運作,」一位用戶模仿ChatGPT文本中諂媚的語氣。

Altman指的是2021年線上論壇Agora Road’s Macintosh Cafe上的一篇文章中普及的一個觀點:曾經充滿人類生機的網路現在已經死亡,完全由機器人和為機器人運行。「網路感覺空虛,沒有人,」IlluminatiPirate,該理論的匿名作者當時寫道。人與人之間自由交流的承諾已經消失。網路已被「少數強大的人劫持」。

一個陰謀論

在ChatGPT發布前近兩年的2021年,機器人運營網路的想法聽起來很牽強,美國政府正在進行一場由人工智慧驅動的對全世界人口的煤氣燈操縱的解釋也是如此。《大西洋月刊》發表了一篇關於該理論的文章,標題為「『網路已死理論』是錯誤的,但感覺是真的。」

機器人——用於對搜尋引擎的網站和社群媒體平台的內容進行排名的自動化電腦腳本——是網路的一部分,但它們無法生成令人信服的內容。

語言學家兼《Algospeak: How Social Media is Transforming the Future of Language》的作者Adam Aleksic告訴TIME:「我們沒有以這樣的規模運行AI,以至於你真的可以擁有可信的AI帳戶來運行網路。」網路已死理論「過去是一個瘋狂的邊緣陰謀論,但現在看起來真實多了。」

網路之死

網路上內容創作的商業模式很簡單:廣告商為創作者的內容吸引的眼球付費,這使得創作者可以繼續創作,而人類可以繼續觀看他們喜歡的東西。只是在過去幾年中,人類已經變得多餘。

廣告分析公司Adalytics在3月份的一份報告中發現,自2020年以來,至少有數百萬起案件,其中從Pfizer到NYPD等品牌的廣告被提供給爬網網路的機器人,而不是真正的用戶,從而破壞了廣告商的投資。在一些喜劇性的案例中,廣告由Google的廣告伺服器提供給Google自己的機器人。網路安全公司Imperva表示,機器人佔網路流量的比例在過去十年中有所增長。2024年,它達到了51%,這是它首次超過來自人類的網路流量的份額。

即使一些網路居民是機器人,它們也大多是被動的觀察者。這種情況在2022年發生了變化,當時山姆·奧特曼的OpenAI引發了生成式AI競賽。從那時起,AI生成的內容數量猛增。自ChatGPT發布以來,Google前20個搜尋結果中包含AI生成內容的網站比例增加了400%,這是AI內容檢測器新創公司Originality AI的數據。

Aleksic說:「平台符合商業利益,將垃圾塞進我們的喉嚨,因為隨著時間的推移,如果AI帳戶更多,它們就必須向人類創作者支付更少的錢。」

像Google這樣的搜尋引擎開始提供網路上文章的AI摘要。用戶無需訪問內容創作者的頁面,就可以在不離開搜尋引擎的情況下獲得概述。點擊內容的次數越少,意味著流入創作者的廣告收入就越少。

隨著AI生成內容的複雜性不斷提高,其範圍已經超越了社群媒體平台。8月,《Dispatch》報導說,由「Margaux Blanchard」在《Wired》和至少其他五家媒體上發布的故事在作者被證明是AI後被撤下。對於有創造力的詐騙者來說,AI提供了一種快速賺錢的新方法。

因此,IlluminatiPirate關於由機器人創建並為機器人創建的虛擬荒地的願景比以往任何時候都更合理。

人類的代價

日益高漲的「垃圾」浪潮也給AI開發人員帶來了問題。像ChatGPT這樣的LLM(大型語言模型)是在網路上訓練的。如果AI提供的摘要繼續轉移原創內容創作者的利潤,那麼高質量內容可能會枯竭——使模型開發人員沒有任何訓練的內容。2024年發表在《Nature》上的一篇論文表明,AI模型在接受自己生成的數據訓練時會「崩潰」。

作為回應,一些雲端提供商,例如Cloudflare,已經提議限制對其託管網站的訪問,並強迫機器人付費進入。這可以幫助創作者重新獲得他們繼續創作所需的收入。該公司CEO Matthew Prince在接受TIME採訪時表示:「我的烏托邦願景是一個人類可以免費獲得內容,而機器人必須為此付出巨額代價的世界。」

利害關係不僅僅在於網路。人類,就像大型語言模型一樣,從他們閱讀的內容中學習。Aleksic說,不僅僅是「機器人包圍著我們」。 「而是我們開始變得更像機器人。」7月,《Scientific American》報導說,ChatGPT常用的詞,如「delve」和「meticulous」,在2022年產品發布後開始更頻繁地出現在對話播客中。奧特曼週一在X上評論說:「真人已經學會了LLM風格的怪癖。」

語言使用方式的改變本身並沒有什麼不好。但是,通過宣傳來自人類用戶的極端內容,策劃我們在網路上看到的東西的算法「已經以不同於實際存在的方式代表了現實」。通過減少將線上討論錨定在真人想法中的人類輸入,AI生成可能會進一步動搖集體現實。

Aleksic說:「我們在美國越來越感受到一種認知差距,人們認為其他人的觀點比實際更加極端。」 「這是一場大規模的AI精神病。」

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。

“`