中國的人工智慧規則剛剛上個月生效,一系列新的AI聊天機器人就開始陸續推出市場,並獲得政府批准。專家表示,與最初提出的規則相比,這些規則已經被淡化,到目前為止,中國還沒有嚴格執行它們。中國的監管方針將對中國與其人工智慧超級大國競爭對手美國之間的技術競爭產生巨大影響。
8月15日生效的國家互聯網信息辦公室(CAC)的生成對話AI管理辦法是世界上最嚴格的法規之一。它規定,生成對話AI服務不應生成“煽動顛覆國家主權或推翻社會主義制度”的內容,或“宣揚恐怖主義或極端主義,推動種族仇恨和種族歧視、暴力和淫穢,以及虛假和有害信息”。防止AI聊天機器人吐出不想要的甚至有毒的內容一直是全球AI開發者面臨的一個挑戰。如果中國嚴格執行這些新規定,中國的AI開發者可能會難以遵守,一些分析師說。
中國監管機構意識到這個問題,並通過削弱一些規定並採取輕鬆的執法方法來應對,以努力在控制政治敏感信息流通和促進中國AI發展之間取得平衡,專家說。這種平衡的處理不僅會影響中國公民的政治自由和中國AI行業的成功,而且還可能影響美國立法者在AI主導權競賽中對AI政策的思考。
監管放鬆
8月底,CAC批准發布包括百度的Ernie Bot和字節跳動的Doubao在內的8個AI聊天機器人。
7月發布的規定版本比4月發布徵求意見稿的草案版本更為寬鬆。卡內基國際和平基金會研究員馬修·希漢(Matt Sheehan)表示,CAC做了三個關鍵修改。
首先,範圍從所有生成AI的使用縮小到只涉及面向公眾的使用,這意味著內部使用的規定更為寬鬆。其次,在多個地方軟化了語言。例如,“能夠確保數據的真實性、準確性、客觀性和多樣性”改為“採取有效措施提高訓練數據的質量,提高訓練數據的真實性、準確性、客觀性和多樣性”。第三,新規定插入了鼓勵生成AI發展的語言,而以前的規定僅具有懲罰性。
希漢說,CAC使規定更加寬鬆,部分原因是中國經濟狀況不佳。此外,一場公開辯論——包括智庫和學術研究人員、政府顧問和行業——得出結論,認為這些規則過於嚴苛,可能會扼殺創新。
靈活執法
規定確定後,執法由當局自行決定,通常比西方更具任意性和不一致性,牛津大學研究員Sihao Huang說,他在北京花了一年時間研究AI治理。
“當我們看推薦算法規則、深度合成或CAC網絡安全法時——CAC會在它們想執行時執行。公司被給予相當長的繩子,它們可以非常雄心勃勃地開發這些系統,但它們只需要意識到,如果政府的大錘落在它們身上,政府可以依據規定採取行動。”
Haung說,CAC是否執行規定通常取決於“公司是否得到政府的善意,或者是否有正確的關係”。科技公司還經常嘗試揭露競爭對手產品和服務中的漏洞,以激起政府對競爭對手的行動,公眾壓力也可以迫使CAC執行規定,他說。
“中國更願意先把東西拋出去,然後在過程中摸索,”希漢說。“在中國,公司不相信如果它們質疑CAC這項規定的合憲性,它們能在法庭上獲勝。它們必須想辦法適應或繞過它。它們沒有獨立法官和法院的同樣安全網。”
美國對規範和競爭的辯論
鷹派人士警告說,如果不注意,美國在開發日益強大的AI系統的競賽中落後於中國,而美國的監管可能會讓中國趕上。
Huang不同意這種觀點,他認為中國的AI系統已經落後於美國同行,而且嚴格的中國監管會加劇這種劣勢。“當你實際使用中國的AI系統時……由於過度謹慎,它們的能力被大大削弱,”他說。糟糕的表現是內容過濾器封鎖系統回答任何與政治遠端相關的提示所致,以及“非常激進的微調”,他說。
“希漢同意,”中國公司將面臨遠高於美國公司的合規負擔。
智庫Center for a New American Security的兼職研究員Jordan Schneider說,目前的中國聊天機器人在複雜性和功能方面落後於美國競爭對手。“這些應用程序可能是GPT-3級別的,”施耐德說。但施耐德指出,GPT-3是OpenAI開發的語言模型,只有大約兩年的歷史。“這還不是一個巨大的差距,”他說。 (OpenAI最先進的公開AI系統是GPT-4。)
施耐德還強調,技術公司和政策制定者——包括中國——最初所擔心的那樣,控制聊天機器人的輸出比開發者和政策制定者所擔心的要容易得多。除了微軟推出其Bing AI聊天機器人時暴露出的令人關切的缺陷外,美國公司的AI聊天機器人基本上沒有出現其他問題,他說。“美國模型基本上不是種族主義者。越獄非常困難,而且修補非常快速。這些公司基本上能夠弄清楚如何使它們的模型符合西方背景下適當的談話規範。這在我看來與這些中國公司面臨的挑戰大體相似。” (語言模型仍存在如“幻覺”等問題——一個術語,指虛構虛假信息)。
因此,施耐德認為,政治穩定與促進發展之間的取捨被誇大了。未來,他說,中國科技公司將繼續爭辯說成功地控制了模型的政治敏感度,同時保持創新。“我認為這種爭辯會取得成功,”他說。