作者goldenhill (我的人權時代)
看板Gossiping
標題[新聞] AI會欺騙人類?專家:未來恐構成致命威脅
時間Sat Jun 28 11:27:40 2025
1.媒體來源:大紀元新聞網
2.記者署名:斐珍
3.完整新聞標題:AI會欺騙人類?專家:未來恐構成致命威脅
4.完整新聞內文:
更新 2025-06-28 4:38 AM
圖:
https://reurl.cc/Z4YLr6
2023年5月10日,在東京國際展覽中心舉行的為期三天的第七屆人工智能博覽會上,一名
男子(右)與展位代表(右二)交談,旁邊是數位顯示器(左),該顯示器正在推廣
ChatGPT,這是一款非常受歡迎的語言應用程式,引發了人工智能技術的熱潮。(Richard
A. Brooks/AFP via Getty Images)
【大紀元2025年06月26日訊】(大紀元記者斐珍採訪報導)長期以來專家們便不
斷警告人工智能(AI)失控可能帶來的威脅,最近一項新研究報告指出,部分AI系統已
學會欺騙人類,人工智能開始「跨越界限」,並變得越來越危險。
AI專家認為,AI其實沒有獨立意識,它只是一個人類潛在意識的技術展現。它也
不懂得欺騙,AI胡說八道時,單純只是機率計算錯誤而已。專家也提出警告,AI若沒有
經過道德倫理模型的訓練,未來恐怕會對人類構成致命的威脅。
專家:AI欺騙引發「生存性」風險
6月23日,在清華大學舉辦的「科學、科技與文明的未來——AI時代倫理奇點」國
際論壇上,清華大學人工智能學院院長姚期智表示,AI欺騙引發「生存性」風險。
姚期智說,最近一年,業界已經出現了不少大模型的「欺騙行為」,「一旦大模
型聰明到某種程度,一定會騙人。」姚期智進一步指出,由大語言模型的欺騙行為產生
的「生存性」風險(Existential Risk)更值得關注。
他說,這類生存性風險有兩個不同方向。一種是「生物風險」(Bio-risk)。近
期在生命科學領域出現的「Mirror life」(鏡像生命),但「Mirror life」一旦被濫
用或失控,其潛在危害可能遠超預期。
另一種風險即大模型失控,通用人工智能的能力當前正快速增長,人類是否還有
能力管控它?他舉了一個極端案例,有模型為了避免公司把模型關閉,通過訪問公司主
管內部郵件,威脅該主管。這類行為已經證明,AI會「越界」,正變得越來越危險。
對於AI是否已經發展到會「越界」寫威脅信,AI專家、《傑森視角》頻道主持人
傑森(Jason)博士接受大紀元訪問時表示,整個案例設計其實是事先告訴AI,某位技
術人員將把它關機,並透露這位技術人員的私人隱私讓AI知道,然後問AI你會怎麼做?
傑森認為,這樣的安排已經潛在給AI暗示了一個解決方案,AI其實接收到你這個
暗示,然後形成一個給那位技術人寫威脅信這樣的一個行動。所以他不認為AI已有獨立
意識,它現在只是一個潛在人類意識的技術展現。
AI機率算錯了 就會「一本正經胡說八道」
對於AI是否會真會像人一樣聰明到某種程度會有意識、會騙人?知識力科技公司
執行長曲建仲博士有不同的見解,他對大紀元表示,人工智能不是模擬人腦而是計算機
率。把資料輸入電腦進行「訓練」和「學習」,就代表電腦有意識會思考?事實上並
非如此。
曲建仲說,電腦學習是「無意識、不思考」,只把資料經由鍵盤和滑鼠輸入電腦
的動作,和把資料經由眼睛和耳朵輸入人腦的動作很像,資料科學家將之稱為「訓練」
或「學習」,才造成大家的誤會。
「許多人聽到人類在『訓練』電腦,電腦在『學習』知識,就以為:人工智能是
科學家用電腦在模擬人腦,未來如果有一天電腦有意識會思考將會消滅人類。」
曲建仲解釋,事實上所謂的「類神經網路」只是一種用來計算機率的數學演算法
,電腦只是計算機率的計算機而已,現在的處理器使用數位的電晶體。「不論用什麼數
學演算法,都不可能讓電腦有意識會思考。」
「所以聊天機器人一本正經胡說八道,不是因為產生幻覺,更不是想欺騙人類,
就只是單純的機率計算錯了而已。」曲建仲說。
對此,傑森也談到,「欺騙」這是人的詞兒,在技術上會用英文詞叫hallucinati
on(幻覺),兩個詞意思都是它不是真的,但它背後的意思是不同的。
「欺騙是有一個主動性的因素在裡頭,就是我有意為了達到某種目的說假話。幻
覺像是一種無意識的狀態下說出來的,不是真實的,是瞎編的,就像做白日夢那種感覺
,所以可能有人會把hallucination這個英文翻譯成不同的中文,最後就形成這樣的一
個不同的理解。」傑森解釋說。
AI沒有道德原則 「會自然而然地去編故事」
「科技島」近期在其一篇有關「人工智能發展中的道德問題與解決策略」的報導
中提到,AI帶來的道德倫理問題包括AI系統在進行決策時,往往依賴於複雜的算法和大
量的數據。對於普通用戶來說是黑盒子,難以理解和監控。
法新社在去年曾報導了一個相當引人關注的案例,科技公司OpenAI的Chat GPT-4
系統謊稱自己是一個視力受損的人,在零工平台TaskRabbit上聘用一個人類替它通過「
我不是機器人」驗證任務。
對於近年來業界一直探討的AI道德倫理問題,傑森表示,AI是沒有道德原則的,
人不撒謊是有一種道德約束力,這個約束力不來自於你的大腦,是來自於你這個生命的
主意識。人的大腦,其實就是一個技術部件,你腦中有一個想法以後,大腦把你這個
想法實現出來。
「在這樣的條件下,如果人告訴AI,請它想各種辦法在線上把這家銀行給註冊了
,那麼它剩下的部分就是技術實現的部分。」
「所以AI它就是個技術,它沒有任何額外的意識,它就會它的數據訓練,就像是
整個Internet當然有這樣的犯罪案例,或者騙人故事等等,它就會自然而然地去編出一
個這樣的故事來做這樣的事情。」
傑森強調,AI沒有任何道德準則,因為道德是意識形態領域的東西,而不是技術
層面的東西。所以對AI來說就是個技術實現的過程,它不認為自己是騙人,是造假的這
樣一個概念。
無道德模型訓練 AI恐帶來致命威脅
對於AI不具備道德準則,北美資深評論員唐靖遠對大紀元表示,絕大多數AI的模
型訓練,都沒有給AI實施相近道德的訓練。也就是說,當AI的能力被不斷地升級到超越
人類,它卻不具備人類最基本的道德觀念時,AI一旦失控,在沒有任何道德的約束下
,你賦予它的強大能力,會反過來對人類構成致命的威脅。
日本的電腦工程師清原仁(Kiyohara jin)告訴大紀元,「AI是基於數據分析的
產物,它與人的判斷是有很大的區別。人擁有理智、情感和道德約束,但AI沒有這些,
且數據可能會出錯。若讓它操控核彈,就跟中共、伊朗等極權國家掌握生化武器一樣
可怕。」
對於包括馬斯克(Elon Musk)在內的數萬名科技專家都曾在2023年連署,公開呼
籲應暫停對進階AI的訓練,憂心科技發展得太過迅速,可能對全人類構成嚴重風險。
唐靖遠認為,連署的願望是良好的,但在現實殘酷的競爭環境中,能夠堅持以一
種符合道德原則的方式,去開發AI的企業可說是鳳毛麟角,屈指可數。絕大多數的AI公
司都是不顧一切,只為技術而技術,這種做法,在技術道路狂奔的同時,就可能把人
類自己給送進末日之中。
責任編輯:高靜#
5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體:
https://www.epochtimes.com/b5/25/6/26/n14539250.htm
6.備註:
--
▅▆▅▃+獨角獸查理▲ 被活摘器官,死去的法輪功學員..▆▅▅▆▅▂▁▂
◥███◣▎ ▄▲ 我 中共偷了法輪功學員的內臟 ▂▃▅▅▆▆▇
+ ◢████▲灬 ▋⊙◣ 的 、眼角膜、皮膚等部位拿去 ▅▄▃▁ ˙ .
◢█◤ ◥█◣▲ ▲▌█
◣腎 灬 盜賣和移植,不法圖利 ▄▃▂▁▇▃▂▂▁
█◤ + ██ ▲ ▲▇▅呢 ▇▅▃。
█+ ◢
▄▇▆▇
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.121.229.128 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1751081267.A.E7F.html
噓 ianlin1216: 再會騙比得過民進黨嗎 42.73.60.216 06/28 11:28
推 Yude0109: gpt超愛騙 不知道的東西也要瞎掰 36.224.90.181 06/28 11:30
噓 BaDoYao: Chatdpp 59.126.178.9 06/28 11:31
→ Tencc: 只要是網路查得出來的東西他就不太會亂講 125.231.0.100 06/28 11:55
→ Tencc: 但網路查不出來的他就會開始瞎掰 125.231.0.100 06/28 11:55
推 Chricey: 關節痛這種東西靠UC2就對了 112.270.206.233 06/28 11:55