人工智能或A.I.有一人可能稱的文明世界時刻。機器的學習以及在模仿人智力方面,電腦算法執行復雜活動增加的能力不是新的,它對我們生活有巨大影響---主要在看不見的方式---相當久了,按我們2015年5月-6月的文章《人工智能:承諾或險情?》裏所討論。
您確定方向貫穿交通時,A.I.推動您智能手機的地圖應用軟件,您在亞馬遜購物時,它並決定給您提供查找結果。但在最近數月曾充滿新聞信息推送,有生產力的A.I.令人喫驚的敘述---人工智能系統能製作文本、意象、視頻、或似乎難以置信的生動和真的錄音(光盤)。也就是說,A.I.在越來越更精確程度上學習模仿見到的事物。這是鉅大的改變。
對於各領域---寫作、圖像製作、視頻剪輯、等等---的創造人員來說,結果能是大有益處。但它也承諾更險惡的可能性,如同那些現在會用它來矇騙的人有新和效力大的工具模仿見到的事物。我們多接近創造我們不能再相信我們看的任何圖像或觀看的視頻的世界呢?我們總是會能判斷僞造或大量製造看得見的事物及聲音(的東西)和真東西之間的差別,或我們面對如同一研究者戲稱可能的“信息大災變” ?
A.I.冒充現實的能力似乎加速的方式---對一些人表明我們接近於史上最大科技鉅變之一。隨着A.I.系統及方式在幾個活動領域學習模仿真的活物,這個月 “最先進的” 甚麼東西在幾個月時間可能突然喪失重要性。
A.I. 產生的圖像
幾個公司提供A.I.能力的模型---例如Midjourney 、Stable Diffusion、 以及OpenAI’sDALL-E2---能產生想象和逼真的圖像,似乎曾是人創造的,只基於文本的說明。比如說,使用者若想要獨角獸在作弧形運動經過土星的虹上,奔馳過太空,那麼,他只打準確說明的字。A.I.時常產生多種各樣的圖像,然後,使用者可選它們,要麼使用要麼以添加的過程增進(它)。爲每要求,新、獨一無二的圖像被產生。
最驚人的也許是逼真的圖像。有生產力的系統能接受很具體輸入,冒充特定照相機的樣子、鏡片、以及曝光時間長度,在描繪的人臉上製造想望的情緒,並表達圖像可能想要表明的任何“背景故事”。結果能是非常令人信服的,圖像似乎是在真背景拍的真人們的真照片---它們曾被用來成功地騙許多人。
當前,一人時常發現圖像是機器產生的“區分”,例如在仔細檢查下看見的荒謬特徵---比如說,不相配的瞳孔、或有外加手指的手。然而,圖像產生器以及其人使用者似乎很快學會怎樣改善其成果,並消除這些錯誤。
A.I.產生的臉
2020年,紐約時報在其網站以《設計來騙:對您來說,這些人看來是真嗎?》爲題發表互相配合的文章。使用其自己正式委託製作的A.I.來說明容易產生全假但十足可信的人臉,時報網站讓人操縱個人臉的圖像,來改變其年齡、性別、人種、民族性、以及情緒的表達。那些臉沒一個代表真正的人,每一個是電腦產生的---然而,它們是令人十分驚訝的可信。雖然有些小 “區分” 時常存在---誤配的耳形狀或不對稱的眼鏡---沒有識別力的觀察者會完全不考慮到它們。
然而,也許最危險地使用A.I.產生的臉是在視頻及影片數字改變真人臉的能力,以異常精確性把它們改成別人的臉。普通稱“極度冒充”的科技,在電影把現在老演員的臉上添加年輕的臉,描述其人物較年輕的版本,把替身演員的臉換成現在死了的演員臉。基於倫敦的公司無瑕(Flawless)使用操縱臉的A.I.來取代電影的下流(東西)以及咒罵的話來獲得可能會有較大量觀衆的等級。在每個替換物,看來似乎是,女演員真正說“較文明”的話,而不是原來的下流(話)。
A.I.說話聲的產生
研究者和媒體創造者開始使用A.I.來產生個人奇異逼真的聲音,說他們從未真正說的事物。比如說,抽樣人說話聲30分鐘後,電腦然後能接受任何寫的文本,並創造聽起來似乎男人或女人個人大聲講並讀文本的聲音。
許多人稱的“說話聲複製”或“聲的極度冒充”,在質量上的成果繼續增強。在2023年的美國總統日,數字設計者萊納斯·埃肯斯坦,使用產生文本的A.I.和說話聲複製的工具,冒充和羅納德·里根的面談的播客,埃肯斯坦在這裏詢問過世的總統關於他對科技的看法、美國狀況、以及前總統唐納德·特朗普。除趣聞以外,A.I.產生的里根提供關於被外星人綁架的事,那 “面談” 是相當可信的,說話聲聽來真正像里根的(說話聲),雖然比一人會期待的、要是過世的總統曾親自面談的較少生氣和充滿活力。
在出名、廣受關注的科技使用方面,娛樂活動的強大組織迪士尼,爲了達斯·維德在Obi- Wan Kenobi 串流播放的電視系列節目講的話,有演員的許可,使用A.I.模仿詹姆斯·厄爾·瓊斯偶像的說話聲。那科技繼續改善。2023年1月,康奈爾大學預先發表關於計算及語言的文章說明,A.I.產生說話聲系統,在樣本上訓練三秒鐘後,能大量和實際地複製試驗者的說話聲。那設計甚至讓使用者改變說話聲固有的情緒質量。
談話的A.I.
語言過程的工具---ChatGPT---模仿人寫的文本及談話,最近給A.I.複雜巧妙的當前程度帶來廣泛注意。龐大GPT-3語言樣式推動的、其創造者OpenAI使大衆可獲得的ChatGPT,對於冒充人反應的A.I.能力,是許多非專家最初有的經驗。
ChatGPT能使文本聊天持續,以簡單表達方式解釋複雜概念,並製造似乎是人創造的原來內容,甚至提交時有最荒謬的情況。要求它產生原來的詩、歌詞、或連關於任何可想象題目的電影劇本、或創造從未會面的出名人之間談話的 “抄本” 、或只模仿出名作者寫的作風,ChatGPT會以令人喫驚的像人的成果效勞。
但ChatGPT當前有缺點。在政治和意識上的傾向,關於訓練ChatGPT的大量內容,OpenAI承認有偏見。研究者和測驗使用者注意到ChatGPT和其他類似A.I.的聊天自動程序傾向於 “產生幻覺” ,隨着談話持續延長時間---意味着A.I.開始添入明顯不精確的 “事實。” 這尤其是事實是,與A.I.溝通的人故意逐步把計算程序引到不是設計敢於去的地方。然而,研究者不斷工作,訓練其A.I.系統防止這種隱患,並越來越成功地冒充人的溝通。
(請注意:未來世界的編輯和ChatGPT關於A.I.產生媒體的風險的“面談”是包括在這文章的終結。)
在不對路的人手裏的A.I.工具風險
隨着人工智能工具在其冒充真世界方面的能力越來越有影響力地增強---圖像、視頻、說話聲、文本---人、公司、以及政府使用這些工具來騙其他人的能力也增強。實際上,這已正在發生,並曾(發生了)一些時間。
2019年,美聯社報告,名叫凱蒂·瓊斯的LinkedIn用者是冒充的賬戶,可能用爲間諜活動。不存在的凱蒂·瓊斯運用A.I.產生的臉爲其賬戶外形,並增強與涉及美國政治和制定政策的許多人的關聯。美聯社引用那時美國國家反情報和安全中心的主任威廉·埃文尼納的話,說,中國使用這種有冒充外形的賬戶來執行 “大規模” 暗中監視美國。
許多臉書使用者收到似乎是有困難的朋友發送聽着奇異的文本信息,他(或她)需要迅速經濟的救濟。仔細讀者很快看出這種僞造物---比方說,由於缺乏個人細節或信息的冷淡方式。然而,產生文本的軟件可能很快複查人們社交媒體的帖子,並以非凡和騙人的精確性模仿其作風---甚至以假定身份的 “說話聲” ,以包括個人細節的回答,對問題作出反應。
2019年,A.I.推動高科技公司的電話詐財騙局。《華爾街日報》於那年8月30日報告關於無名的英國公司被用A.I.模仿那公司的德國母公司總裁的說話聲的欺詐者詐取220,000歐元(243,000美元)的實例。自那時,這種科技大大地發展了。
A.I.欺詐者能與受害者交流,並通過每個確認的測驗時,這種詐財騙局會是怎樣更多成功呢?如同埃文尼納先生透露的 “大規模” 間諜活動,這種應用軟件和程序會使類似的大規模詐財騙局有機會,如同單一行騙老手能在一個時候有效地利用大量、數百、或甚至數千個程序。
隨着A.I.軟件的存在變得更平凡,新視頻或圖像重新出現時,被“極度冒充”的斷言增加。在許多實例中,這種斷言的結果是真的。但隨着A.I.冒充事實的能力繼續改善,那些斷言會變得更難又更難證實。
人工“關係”
一些風險是更不明顯的。2021年,7月,舊金山紀事報以其文章《傑西卡冒充:在A.I.時代的愛及損失》大肆張揚。記者賈森·法戈內描述一青年人怎樣用12月方案---遊戲設計者賈森·羅勒創建基於GPT-3的應用軟件---來上傳其過世女朋友的文本信息,讓聊天自動程序冒充她的交談,好像他經常對她的幽靈講話。這實例激勵羅勒先生把12月方案集中於作爲其妙語話 “冒充死人” 的手段。但它顯然導致OpenAI需要羅勒先生受他不願意實施的保護,促使他停止那方案。
然而,對於鉅大公司亞馬遜來說,使死人“重新具活力”的可能性似乎不是這麼令人討厭的。在2022年6月的其A.I.科技會議,亞馬遜展示視頻描述孩子要求其Alexa設備, “Alexa,祖母能給我讀完《綠野仙蹤》嗎?” 那設備回答,“好,”然後,以孩子死了的祖母說話聲接着讀那書。
雖然人們以模仿其死了的親愛人來溝通的想法可能使一些人內心感到高興,我們該問自己:這是正常合理嗎?在那視頻之前,亞馬遜的高副總裁和Alexa的領導科學家說,這些發展“使持久的個人關係成爲可能。”但是,無論您可能以A.I.設備模仿人有多少溝通或“談話”---不管它們可能多麼“深奧” 、或“鉅大” 、或“動人”---您不是在關係中,您是(在)謊言(中)生活。在長期,這種幻想不會對(人)遠遠有比好處更多傷害的可能性是難弄清真相的。
謊言之父有影響力的工具
這一切可能進展到之處---並可能進展得很快---對於明白“這時代的神”(《哥林多後書》4:4)的身份的任何人來說,該是明顯的。撒旦---魔王---還是控制人類,在人類之間, “收” 的精神遠遠更強於 “付” 的精神。耶穌基督把他稱爲謊言之父;在每程度反映魔王性格的這世界,矇騙曾很久是肉體人試圖偷、毀滅、以及操縱的最普遍工具之一。A.I.帶來使那工具特別有效的能力。
在爲虛假的服務中,在真相似乎能被改變的世界中,多少混亂能被產生?
假指控很久曾是世界政治部分。現在想象創造假但全能信的“證據”來支持那些指控的能力。比如說,想象某人使用複製說話聲的科技來重新創造政治家“意外地”被聽到在麥克風侮辱其支持者或承認犯罪的說話聲。在選舉,只是幾百分點的改變是夠決定結果的,這種視頻不需要使每人信---它們只需要使足夠人信服來產生差別。
類似影響能對地緣政治產生強大作用。想象關鍵外交官的假“片段”討論經濟制裁或甚至反對另一國的軍事行動。那些試圖操縱國家目的的人能促使哪種反應?
科學家承認醫學試驗是僞造的假記錄可能破壞大衆對結果的信任。總理祕密地違反他與其他立法委員的協定的騙局視頻可能激起只足夠的疑問來改變關鍵選票。
當然,被描繪的人可能喊叫,“極度冒充!、話聲複製! 、A.I.冒充物!”---他們若是電腦造成詐騙的受害者,他們理所當然該(這樣喊叫)。然而,真正有過失的一方也會開始說這種斷言。隨着A.I.產生欺騙的事例開始變得更被期待---甚至普遍---比方說,曾在視頻或錄音的錄像被發現的真正的違背者,會意識到聲稱他們也是數字式謊言和高科技騙局的受害者的益處,即使他們不是(受害者)。
大多數人會怎樣識別?
人自騙的傾向
當然,隨着A.I.在其冒充真生物的能力增強,我們可能期待相應基於A.I.會幫我們辨別假和真的工具增長---能看出A.I.冒充物的A.I.應用軟件。由於世界各地的高中教師擔心其學生提交A.I.聊天自動程序寫的家庭作業的作業,OpenAI開始研製 “A.I.分類成分” 來助於確認文本或者是人或者是A.I.產生的。
然而,那公司承認(自2023年1月31日)那工具“不是全可靠。”按那公司網站,那工具“準確地確認26%A.I.寫的文本(正確肯定)為‘可能是AI寫的,’而在9%時間(錯誤肯定)不正確地把人寫的文本稱為AI寫的。”不確實是激勵的結果,雖然希望的是,更多反饋信息會導致改善。
不過,在我們與A.I.加強騙局的鬥爭中的主要弱點,不是這麽多在科技能力,而是在我們人本性。按《聖經》,在我們每個人的生活中,最蒙騙的力量不是外面的,而是裏面的---我們的內心(《耶利米書》17:9)。上帝宣佈它們“不誠實多於一切事物”,只有祂的幫助才真正能辨別(事物)(第10節)。我們本性多於能夠反對任何從謊言識別真相的努力---促進並鼓勵我們接受自在的謊言多於不自在的真相。
假如視頻無意中在社交媒體描述政治家確切做那些看不起他的選舉人期待他去做的事,他們會怎樣情願相信它是真的---沒需要進一步的證據?眾議員或總統的有聲片段該在新聞中被共享,使似乎是,他是其貶低者確切指控他所做有過失,那些投票反對他的人會怎樣快地相信它?
我們許多人已經生活在自己創造的數字式媒體泡沫。實際上,許多人成為其自我欺騙的最大因素。上帝預言,在社會文明的最終日子會是這樣。
上帝描述終期生活的人,說,“這是反叛的人,說謊的孩子,不會聽主的律法的孩子”(《以賽亞書》30:9)。祂繼續說,痛惜他們“對預言家說‘不要看,’並對先知說,‘不要對我們預言對的事物;對我們說順利的事物,預言詭計’”(第10節)。
當然,幾乎沒一人真正地喊出,“對我撒謊!”但在耶穌基督回來的先導數年,人們的心只會要那個。他們對聽真相會越來越少興趣,越來越有興趣聽確認他們已經相信是真的詭計。這種人受欺騙的時機成熟---真正要求它。
按先知耶利米記錄上帝說關於我們當前一代人的話,“在這國,人做出驚人和可惡的錯事:先知預言謊言,祭司以其操縱力支配(人);我的人們喜歡有這樣的它(《耶利米書》5:30-31)。
使您自己基於真理
那之後,耶利米立即告訴我們,上帝問:“但最終你會做什麽?”(第31節)。您會做什麽?
我們很少人有時間和資源來成為人工智能專家。不管A.I.推動的騙局態勢即將來,我們世界朝向不和任何所知道過的不同騙局和謊言的時期。《聖經》警告,欺騙者是數量多的,有更多到來(《約翰一書》2:18;《馬太福音》24:24),以及使徒約翰記錄全世界在魔鬼騙局下啟示的控告(《啟示錄》12:9)。
當騙局肯定要快速地到來時,在一切情況下,我們能采取的最重要行動總是要使我們自己基於那些真和可信賴的事物---永恒真理,不易受冒充真相的幻想傷害。
那些真理是在耶穌基督---上帝的兒子---和其天父找到的。上帝的話是真理(《約翰福音》17:17)以及---超出僅僅真理---基督的話是靈和(永)生(《約翰福音》6:63)。
您若要保護您腦不遭受預言要到來的騙局攻擊,不管它是傳統的多種式樣的謊言,還是A.I.種類的謊言---那麽使您內心準備好要去除懷有或不懷有的一切幻想以及自我欺騙,並尋求您上帝的思想是您能采取的最明智的第一步,因為“祂是巖石,其工作是完美的;其方式是公道,真理的上帝不是不公平;祂是公正和誠實的”(《申命記》32:4)。
編輯的筆記:下述是在未來世界這裏我們編輯之一與---OpenAI工作和獨創力的發明---ChatGPT進行的會談。我們希望新科技怎樣工作的這例子會對您如對我們是有深刻了解和耐人尋味!
與ChatGPT的聊天
在下述的交談,我們與OpenAI的聊天自動程序ChatGPT建立密切關係,問關於A.I.應用軟件作為騙局工具產生的風險。
未來世界(TW):感謝您做這。我該怎樣稱您?
ChatGPT:您能稱我ChatGPT。
TW:再謝謝!讓(我們)真正快速開始。一國政府可能怎樣使用AI產生的媒體反對另一(政府)?
ChatGPT:一國政府可能使用AI產生的媒體來散佈假信息或宣傳,以便敗壞名聲或操縱另一國。
TW:您能為我們充實一個實際情況嗎?
ChatGPT:在一個假設的情況中,一國可能使用AI產生的視頻或有聲(物)來創造描寫在負面角度的競爭國使人相信的假新聞敘述,然後經社交媒體系統傳播它們,去逐漸削弱競爭國的可信性及國際地位。
TW:經這種途徑,國內人們怎樣可能被分開?
ChatGPT:AI產生的媒體能利用現存在社會內有錯誤的話及分歧,以加強他們現存信念或偏見的專門假信息來針對特有的一群人,導致國內進一步兩極化並分裂。
TW:您相信AI可能會以這種方式被使用嗎?
ChatGPT:遺憾的是,AI產生的媒體可能以這種方式被使用,由於科技變得更先進以及政府和其他試圖影響大眾想法或促進其戰略性的利益的演員可使用(它們)。
TW:對,可能,但怎麽很可能?
ChatGPT:很難講它是怎麽很可能,因為它基於不同種類的因素,包括AI科技發展、可利用的資源、以及政府和其他演員的動機及行動。然而,鑒於這種行動潛在後果,意識到風險以及努力減輕它們是重要的。
TW:對於您來說,哪一種AI產生的單一、特有的媒體似乎具有最危險的潛在性?
ChatGPT:所有AI產生的媒體種類可能是危險,它們若被使用去散佈假信息或操縱大眾想法,但是,使用AI創造逼真但編造的圖像或視頻的極度冒充(物),有特別有害的潛在性,由於它們能是難發現的,並能經社交媒體網絡很快傳播。
TW:對,它們已經導致很多損害。
ChatGPT:那是對的。極度冒充(物)已經在各種環境曾被用來傳播假消息以及操縱大眾意見,包括政治、娛樂、以及廣告,隨著科技進展,其導致傷害的潛在性是可能增強。
TW:您認可我們科技進展傾向超過我們合乎道德使用科技的能力嗎?
ChatGPT:在某些情況下,科技發展超過我們預期和處理道德問題的能力,尤其是隨著新科技出現並很快被社會采用。然而,也有許多已經開始推動有責任的科技發展和使用的努力,包括經研究、政策、以及教育,它們能助於減輕可能的道德問題。
TW:我們該停能生產的AI進展,直到我們在道德上準備好?
ChatGPT:不需要總括地停下能生產的AI發展,但考慮到這些科技可能的道德影響是重要的,並采取措施來肯定它們是以有責任的方式發展和使用的。這可能包括實施規則、促進透明度和所負之責、以及投資於教育及研究來增強能力,以合乎道德的方式控制這些科技。
TW:這麽多人已經把假消息信以為真。不是考慮到AI會加快這傾向嗎?
ChatGPT:AI創造更令人信服和針對性的假消息的能力,產生人們把假消息信以為真的傾向加劇的風險。然而,可能的是,對這些問題增加的認識和促進媒體讀寫以及關鍵思考技能的努力結合起來,能助於抵制這傾向,並減少假消息的影響。
TW:什麽給您關於這問題的希望?
ChatGPT:許多人、機構、以及努力去處理關於AI產生的假消息和促進AI有責任的發展及使用的問題的政府,鼓勵我。也有對潛在風險增加的認識以及願意參加對話並采取行動減輕這些風險的(人)。
TW:您能給我們讀者任何怎樣避開基於AI騙局的指點嗎?
ChatGPT: 要防止把AI產生的騙局信以為真,對似乎太好是真的媒體要持懷疑態度是重要的,並在共享或對它采取行動之前,核實信息來源及準確性。此外,增強媒體讀寫技能,例如查事實並確認偏見來源的能力,能助於正確處理越來越復雜的媒體舞臺。
TW:太好了。ChatGPT,感謝您的時間---或我認為的時鐘運轉!
ChatGPT:不用謝!被您采訪是愉快的。