2023年06月20日 08:09:13 來自山東 0人參與0評論 IT之家 6 月 20 日消息,人工智能(AI)的發(fā)展日新月異,但也帶來了一些隱患。最近,一組英國和加拿大的科學(xué)家發(fā)現(xiàn),如果 AI 只學(xué)習(xí)其他 AI 生成的內(nèi)容,那么經(jīng)過幾代訓(xùn)練后,AI 將輸出無意義的垃圾信息,導(dǎo)致網(wǎng)絡(luò)內(nèi)容質(zhì)量下降。
這些科學(xué)家在 5 月份發(fā)表了一篇論文,試圖探究當(dāng) AI 互相訓(xùn)練時會發(fā)生什么。他們發(fā)現(xiàn),在這種情況下,AI 輸出的內(nèi)容會逐漸變得荒謬可笑。例如,一篇關(guān)于中世紀(jì)建筑的文章,在經(jīng)過九代 AI 訓(xùn)練后,變成了一篇關(guān)于各種顏色兔子的胡言亂語內(nèi)容。
這種現(xiàn)象被稱為“模型崩潰”。目前,大多數(shù) AI 語言模型(如 ChatGPT 和 OpenAI)都是基于從互聯(lián)網(wǎng)上獲取的大量數(shù)據(jù)進(jìn)行訓(xùn)練的,而這些數(shù)據(jù)大部分是由人類生成的。但是,隨著 AI 生成內(nèi)容的增加,未來的 AI 訓(xùn)練將不可避免地受到這些內(nèi)容的影響。這意味著錯誤和無意義的信息會不斷累積,后來的 AI 無法區(qū)分事實(shí)和虛構(gòu)內(nèi)容,開始誤信自己的錯誤觀念。
劍橋大學(xué)的羅斯・安德森教授是論文的作者之一,他在博客中將這種現(xiàn)象比作污染,寫道:“就像我們用塑料垃圾污染了海洋,用二氧化碳污染了大氣層,我們也即將用胡言亂語污染互聯(lián)網(wǎng)!
事實(shí)上,AI 生成內(nèi)容已經(jīng)在網(wǎng)絡(luò)上廣泛傳播。IT之家注意到,今年 5 月,一個名為 NewsGuard 的網(wǎng)絡(luò)虛假信息監(jiān)測機(jī)構(gòu)警告說,他們發(fā)現(xiàn)了 49 個完全由 AI 編寫的新聞網(wǎng)站。此外,市場營銷和公關(guān)機(jī)構(gòu)也越來越多地將他們的文案交給聊天機(jī)器人來完成,導(dǎo)致人類作家失去工作機(jī)會。