日韩欧美中国a v-日韩欧美在线综合网高清-日韩欧美在线中文字幕-日韩欧美在线视频观看-国产人妖系列在线精品-国产人妖视频一区在线观看

Internet Develppment
互聯網開發& 推廣服務提供商

我們擅長商業策略與用戶體驗的完美結合。

歡迎瀏覽我們的案例。

首頁 > 新聞中心 > 新聞動態 > 正文

用AI生成數據訓練AI或導致模型崩潰

發布時間:2024-07-26 09:35:05來源:科技日報

  科技日報北京7月25日電 (記者張夢然)《自然》24日正式發表的一篇研究論文指出了一個人工智能(AI)嚴重問題:用AI生成的數據集訓練未來幾代機器學習模型,可能會嚴重“污染”它們的輸出,這被稱為“模型崩潰”。研究顯示,原始內容會在9次迭代以后,變成不相關的“胡言亂語”(演示中一個建筑文本最終變成了野兔的名字),這凸顯出使用可靠數據訓練AI模型的重要性。

  生成式AI工具越來越受歡迎,如大語言模型等,這類工具主要用人類生成的輸入進行訓練。不過,隨著這些AI模型在互聯網不斷壯大,計算機生成內容可能會以遞歸循環的形式被用于訓練其他AI模型或其自身。

  包括英國牛津大學在內的聯合團隊一直在進行相關研究,并在去年論文預印本中提出這一概念。在正式發表的論文中,他們用數學模型演示了AI可能會出現的“模型崩潰”。他們證明了一個AI會忽略訓練數據中的某些輸出(如不太常見的文本),導致其只用一部分數據集來自我訓練。

  團隊分析了AI模型會如何處理主要由AI生成的數據集。他們發現,給模型輸入AI生成的數據,會減弱今后幾代模型的學習能力,最終導致了“模型崩潰”。他們測試的幾乎所有遞歸訓練語言模型,都容易出現問題。比如,一個用中世紀建筑文本作為原始輸入的測試,到第9代的輸出已經是一串野兔的名字。

  團隊指出,用前幾代生成的數據集去訓練AI,崩潰是一個不可避免的結局。他們認為,必須對數據進行嚴格過濾。與此同時,這也意味著依賴人類生成內容的AI模型,或許能訓練出更高效的AI模型。

  對AI來說,“模型崩潰”就像癌癥一樣,甚至分早期與晚期。在早期時,被“喂”了生成數據的AI會開始失去一些原始正確數據;但在晚期,被“喂”了生成數據的AI會“口吐狂言”——給出完全不符合現實,也和底層數據一點不相關的結果,就像本文中的例子一樣。更可怕的是,“模型崩潰”的AI極其固執,錯誤幾乎難以矯正。它會持續強化,最終把錯誤結果認為是正確的。這一問題值得所有關注生成式AI的人們警惕,因為它等于是在“毒化”AI對真實世界的認知。

  【責任編輯:冉曉寧】

最新資訊
? 2018 河北碼上網絡科技有限公司 版權所有 冀ICP備18021892號-1   
? 2018 河北碼上科技有限公司 版權所有.