跳转到主要内容
不要以(A.I.)谎言生活

人工智能或A.I.有一人可能称的文明世界时刻。机器的学习以及在模仿人智力方面,电脑算法执行复杂活动增加的能力不是新的,它对我们生活有巨大影响---主要在看不见的方式---相当久了,按我们20155-6月的文章《人工智能:承诺或险情?》里所讨论。

您确定方向贯穿交通时,A.I.推动您智能手机的地图应用软件,您在亚马逊购物时,它并决定给您提供查找结果。但在最近数月曾充满新闻信息推送,有生产力的A.I.令人吃惊的叙述---人工智能系统能制作文本意象视频、似乎难以置信的生动和真的录音(光盘)。也就是说,A.I.在越来越更精确程度上学习模仿见到的事物。这是巨大的改变。

对于各领域---写作图像制作视频剪辑等等---的创造人员来说,结果能是大有益处。但它也承诺更险恶的可能性,如同那些现在会用它来蒙骗的人有新和效力大的工具模仿见到的事物。我们多接近创造我们不能再相信我们看的任何图像或观看的视频的世界呢?我们总是会能判断伪造或大量制造看得见的事物及声音(的东西)和真东西之间的差别,或我们面对如同一研究者戏称可能的“信息大灾变” ?

A.I.冒充现实的能力似乎加速的方式---对一些人表明我们接近于史上最大科技巨变之一。随着A.I.系统及方式在几个活动领域学习模仿真的活物,这个月 “最先进的” 什么东西在几个月时间可能突然丧失重要性。

A.I. 产生的图像

几个公司提供A.I.能力的模型---例如Midjourney Stable Diffusion 以及OpenAI’sDALL-E2---能产生想象和逼真的图像,似乎曾是人创造的,只基于文本的说明。比如说,使用者若想要独角兽在作弧形运动经过土星的虹上,奔驰过太空,那么,他只打准确说明的字。A.I.时常产生多种各样的图像,然后,使用者可选它们,要么使用要么以添加的过程增进(它)。为每要求,新独一无二的图像被产生。

最惊人的也许是逼真的图像。有生产力的系统能接受很具体输入,冒充特定照相机的样子镜片以及曝光时间长度,在描绘的人脸上制造想望的情绪,并表达图像可能想要表明的任何“背景故事”。结果能是非常令人信服的,图像似乎是在真背景拍的真人们的真照片---它们曾被用来成功地骗许多人。

当前,一人时常发现图像是机器产生的“区分”,例如在仔细检查下看见的荒谬特征---比如说,不相配的瞳孔或有外加手指的手。然而,图像产生器以及其人使用者似乎很快学会怎样改善其成果,并消除这些错误。

A.I.产生的脸

2020年,纽约时报在其网站以《设计来骗:对您来说,这些人看来是真吗?》为题发表互相配合的文章。使用其自己正式委托制作的A.I.来说明容易产生全假但十足可信的人脸,时报网站让人操纵个人脸的图像,来改变其年龄性别人种民族性以及情绪的表达。那些脸没一个代表真正的人,每一个是电脑产生的---然而,它们是令人十分惊讶的可信。虽然有些小 “区分” 时常存在---误配的耳形状或不对称的眼镜---没有识别力的观察者会完全不考虑到它们。

然而,也许最危险地使用A.I.产生的脸是在视频及影片数字改变真人脸的能力,以异常精确性把它们改成别人的脸。普通称“极度冒充”的科技,在电影把现在老演员的脸上添加年轻的脸,描述其人物较年轻的版本,把替身演员的脸换成现在死了的演员脸。基于伦敦的公司无瑕(Flawless)使用操纵脸的A.I.来取代电影的下流(东西)以及咒骂的话来获得可能会有较大量观众的等级。在每个替换物,看来似乎是,女演员真正说“较文明”的话,而不是原来的下流(话)。

A.I.说话声的产生

研究者和媒体创造者开始使用A.I.来产生个人奇异逼真的声音,说他们从未真正说的事物。比如说,抽样人说话声30分钟后,电脑然后能接受任何写的文本,并创造听起来似乎男人或女人个人大声讲并读文本的声音。

许多人称的“说话声复制”或“声的极度冒充”,在质量上的成果继续增强。在2023年的美国总统日,数字设计者莱纳斯·埃肯斯坦,使用产生文本的A.I.和说话声复制的工具,冒充和罗纳德·里根的面谈的播客,埃肯斯坦在这里询问过世的总统关于他对科技的看法美国状况以及前总统唐纳德·特朗普。除趣闻以外,A.I.产生的里根提供关于被外星人绑架的事,那 “面谈” 是相当可信的,说话声听来真正像里根的(说话声),虽然比一人会期待的要是过世的总统曾亲自面谈的较少生气和充满活力。

在出名广受关注的科技使用方面,娱乐活动的强大组织迪士尼,为了达斯·维德在Obi- Wan Kenobi 串流播放的电视系列节目讲的话,有演员的许可,使用A.I.模仿詹姆斯·厄尔·琼斯偶像的说话声。那科技继续改善。20231月,康奈尔大学预先发表关于计算及语言的文章说明,A.I.产生说话声系统,在样本上训练三秒钟后,能大量和实际地复制试验者的说话声。那设计甚至让使用者改变说话声固有的情绪质量。

谈话的A.I.

语言过程的工具---ChatGPT---模仿人写的文本及谈话,最近给A.I.复杂巧妙的当前程度带来广泛注意。庞大GPT-3语言样式推动的其创造者OpenAI使大众可获得的ChatGPT,对于冒充人反应的A.I.能力,是许多非专家最初有的经验。

ChatGPT能使文本聊天持续,以简单表达方式解释复杂概念,并制造似乎是人创造的原来内容,甚至提交时有最荒谬的情况。要求它产生原来的诗歌词或连关于任何可想象题目的电影剧本或创造从未会面的出名人之间谈话的 “抄本”或只模仿出名作者写的作风,ChatGPT会以令人吃惊的像人的成果效劳。

ChatGPT当前有缺点。在政治和意识上的倾向,关于训练ChatGPT的大量内容,OpenAI承认有偏见。研究者和测验使用者注意到ChatGPT和其他类似A.I.的聊天自动程序倾向于 “产生幻觉” ,随着谈话持续延长时间---意味着A.I.开始添入明显不精确的 “事实。” 这尤其是事实是,与A.I.沟通的人故意逐步把计算程序引到不是设计敢于去的地方。然而,研究者不断工作,训练其A.I.系统防止这种隐患,并越来越成功地冒充人的沟通。

(请注意:未来世界的编辑和ChatGPT关于A.I.产生媒体的风险的“面谈”是包括在这文章的终结。)

 

在不对路的人手里的A.I.工具风险

 

随着人工智能工具在其冒充真世界方面的能力越来越有影响力地增强---图像视频

说话声文本---公司以及政府使用这些工具来骗其他人的能力也增强。实际上,这已正在发生,并曾(发生了)一些时间。

 

2019年,美联社报告,名叫凯蒂·琼斯的LinkedIn用者是冒充的账户,可能用为间谍活动。不存在的凯蒂·琼斯运用A.I.产生的脸为其账户外形,并增强与涉及美国政治和制定政策的许多人的关联。美联社引用那时美国国家反情报和安全中心的主任威廉·埃文尼纳的话,说,中国使用这种有冒充外形的账户来执行 “大规模” 暗中监视美国。

 

许多脸书使用者收到似乎是有困难的朋友发送听着奇异的文本信息,他(或她)需要迅速经济的救济。仔细读者很快看出这种伪造物---比方说,由于缺乏个人细节或信息的冷淡方式。然而,产生文本的软件可能很快复查人们社交媒体的帖子,并以非凡和骗人的精确性模仿其作风---甚至以假定身份的 “说话声” ,以包括个人细节的回答,对问题作出反应。

2019年,A.I.推动高科技公司的电话诈财骗局。《华尔街日报》于那年830日报告关于无名的英國公司被用A.I.模仿那公司的德国母公司总裁的说话声的欺诈者诈取220000欧元(243000美元)的实例。自那时,这种科技大大地发展了。

A.I.欺诈者能与受害者交流,并通过每个确认的测验时,这种诈财骗局会是怎样更多成功呢?如同埃文尼纳先生透露的 “大规模” 间谍活动,这种应用软件和程序会使类似的大规模诈财骗局有机会,如同单一行骗老手能在一个时候有效地利用大量数百或甚至数千个程序。

随着A.I.软件的存在变得更平凡,新视频或图像重新出现时,被“极度冒充”的断言增加。在许多实例中,这种断言的结果是真的。但随着A.I.冒充事实的能力继续改善,那些断言会变得更难又更难证实。

人工“关系”

一些风险是更不明显的。2021年,7月,旧金山纪事报以其文章《杰西卡冒充:在A.I.时代的爱及损失》大肆张扬。记者贾森·法戈内描述一青年人怎样用12月方案---游戏设计者贾森·罗勒创建基于GPT-3的应用软件---来上传其过世女朋友的文本信息,让聊天自动程序冒充她的交谈,好像他经常对她的幽灵讲话。这实例激励罗勒先生把12月方案集中于作为其妙语话 “冒充死人” 的手段。但它显然导致OpenAI需要罗勒先生受他不愿意实施的保护,促使他停止那方案。

然而,对于巨大公司亚马逊来说,使死人“重新具活力”的可能性似乎不是这么令人讨厌的。在20226月的其A.I.科技会议,亚马逊展示视频描述孩子要求其Alexa设备, “Alexa,祖母能给我读完《绿野仙踪》吗?” 那设备回答,“好,”然后,以孩子死了的祖母说话声接着读那书。

虽然人们以模仿其死了的亲爱人来沟通的想法可能使一些人内心感到高兴,我们该问自己:这是正常合理吗?在那视频之前,亚马逊的高副总裁和Alexa的领导科学家说,这些发展“使持久的个人关系成为可能。”但是,无论您可能以A.I.设备模仿人有多少沟通或“谈话”---不管它们可能多么“深奥”或“巨大”或“动人”---您不是在关系中,您是(在)谎言(中)生活。在长期,这种幻想不会对(人)远远有比好处更多伤害的可能性是难弄清真相的。

谎言之父有影响力的工具

这一切可能进展到之处---并可能进展得很快---对于明白“这时代的神”(《哥林多后书》44)的身份的任何人来说,该是明显的。撒旦---魔王---还是控制人类,在人类之间, “收” 的精神远远更强于 “付” 的精神。耶稣基督把他称为谎言之父;在每程度反映魔王性格的这世界,蒙骗曾很久是肉体人试图偷毁灭以及操纵的最普遍工具之一。A.I.带来使那工具特别有效的能力。

在为虚假的服务中,在真相似乎能被改变的世界中,多少混乱能被产生?

假指控很久曾是世界政治部分。现在想象创造假但全能信的“证据”来支持那些指控的能力。比如说,想象某人使用复制说话声的科技来重新创造政治家“意外地”被听到在麦克风侮辱其支持者或承认犯罪的说话声。在选举,只是几百分点的改变是够决定结果的,这种视频不需要使每人信---它们只需要使足够人信服来产生差别。

类似影响能对地缘政治产生强大作用。想象关键外交官的假“片段”讨论经济制裁或甚至反对另一国的军事行动。那些试图操纵国家目的的人能促使哪种反应?

科学家承认医学试验是伪造的假记录可能破坏大众对结果的信任。总理秘密地违反他与其他立法委员的协定的骗局视频可能激起只足够的疑问来改变关键选票。

当然,被描绘的人可能喊叫,“极度冒充!话声复制! A.I.冒充物!”---他们若是电脑造成诈骗的受害者,他们理所当然该(这样喊叫)。然而,真正有过失的一方也会开始说这种断言。随着A.I.产生欺骗的事例开始变得更被期待---甚至普遍---比方说,曾在视频或录音的录像被发现的真正的违背者,会意识到声称他们也是数字式谎言和高科技骗局的受害者的益处,即使他们不是(受害者)。

大多数人会怎样识别?

人自骗的倾向

当然,随着A.I.在其冒充真生物的能力增强,我们可能期待相应基于A.I.会帮我们辨别假和真的工具增长---能看出A.I.冒充物的A.I.应用软件。由于世界各地的高中教师担心其学生提交A.I.聊天自动程序写的家庭作业的作业,OpenAI开始研制 “A.I.分类成分”

来助于确认文本或者是人或者是A.I.产生的。

然而,那公司承认(自2023131日),那工具“不是全可靠。”按那公司网站,那工具“准确地确认26%A.I.写的文本(正确肯定)为‘可能是AI写的,’而在9%时间(错误肯定)不正确地把人写的文本称为AI写的。”不确实是激励的结果,虽然希望的是,更多反馈信息会导致改善。

不过,在我们与A.I.加强骗局的斗争中的主要弱点,不是这么多在科技能力,而是在我们人本性。按《圣经》,在我们每个人的生活中,最蒙骗的力量不是外面的,而是里面的---我们的内心(《耶利米书》179)。上帝宣布它们“不诚实多于一切事物”,只有祂的帮助才真正能辨别(事物)(第10节)。我们本性多于能够反对任何从谎言识别真相的努力---促进并鼓励我们接受自在的谎言多于不自在的真相。

假如视频无意中在社交媒体描述政治家确切做那些看不起他的选举人期待他去做的事,他们会怎样情愿相信它是真的---没需要进一步的证据?众议员或总统的有声片段该在新闻中被共享,使似乎是,他是其贬低者确切指控他所做有过失,那些投票反对他的人会怎样快地相信它?

我们许多人已经生活在自己创造的数字式媒体泡沫。实际上,许多人成为其自我欺骗的最大因素。上帝预言,在社会文明的最终日子会是这样。

上帝描述终期生活的人,说,“这是反叛的人,说谎的孩子,不会听主的律法的孩子”(《以赛亚书》309)。祂继续说,痛惜他们“对预言家说‘不要看,’并对先知说,‘不要对我们预言对的事物;对我们说顺利的事物,预言诡计’”(第10节)。

当然,几乎没一人真正地喊出,“对我撒谎!”但在耶稣基督回来的先导数年,人们的心只会要那个。他们对听真相会越来越少兴趣,越来越有兴趣听确认他们已经相信是真的诡计。这种人受欺骗的时机成熟---真正要求它。

按先知耶利米记录上帝说关于我们当前一代人的话,“在这国,人做出惊人和可恶的错事:先知预言谎言,祭司以其操纵力支配(人);我的人们喜欢有这样的它(《耶利米书》530-31)。

使您自己基于真理

那之后,耶利米立即告诉我们,上帝问:“但最终你会做什么?”(第31节)。

您会做什么?

我们很少人有时间和资源来成为人工智能专家。不管A.I.推动的骗局态势即将来,我们世界朝向不和任何所知道过的不同骗局和谎言的时期。《圣经》警告,欺骗者是数量多的,有更多到来(《约翰一书》218;《马太福音》2424),以及使徒约翰记录全世界在魔鬼骗局下启示的控告(《启示录》129)。

当骗局肯定要快速地到来时,在一切情况下,我们能采取的最重要行动总是要使我们自己基于那些真和可信赖的事物---永恒真理,不易受冒充真相的幻想伤害。

那些真理是在耶稣基督---上帝的儿子---和其天父找到的。上帝的话是真理(《约翰福音》17:17)以及---超出仅仅真理---基督的话是灵和(永)生(《约翰福音》663)。

您若要保护您脑不遭受预言要到来的骗局攻击,不管它是传统的多种式样的谎言,还是A.I.种类的谎言---那么使您内心准备好要去除怀有或不怀有的一切幻想以及自我欺骗,并寻求您上帝的思想是您能采取的最明智的第一步,因为“祂是岩石,其工作是完美的;其方式是公道,真理的上帝不是不公平;祂是公正和诚实的”(《申命记》324)。

编辑的笔记:下述是在未来世界这里我们编辑之一与---OpenAI工作和独创力的发明---ChatGPT进行的会谈。我们希望新科技怎样工作的这例子会对您如对我们是有深刻了解和耐人寻味!

 

ChatGPT的聊天

在下述的交谈,我们与OpenAI的聊天自动程序ChatGPT建立密切关系,问关于A.I.应用软件作为骗局工具产生的风险。

未来世界(TW:感谢您做这。我该怎样称您?

ChatGPT:您能称我ChatGPT

TW:再谢谢!让(我们)真正快速开始。一国政府可能怎样使用AI产生的媒体反对另一(政府)?

ChatGPT:一国政府可能使用AI产生的媒体来散布假信息或宣传,以便败坏名声或操纵另一国。

TW:您能为我们充实一个实际情况吗?

ChatGPT在一个假设的情况中,一国可能使用AI产生的视频或有声(物)来创造描写在负面角度的竞争国使人相信的假新闻叙述,然后经社交媒体系统传播它们,去逐渐削弱竞争国的可信性及国际地位。

TW:经这种途径,国内人们怎样可能被分开?

ChatGPTAI产生的媒体能利用现存在社会内有错误的话及分歧,以加强他们现存信念或偏见的专门假信息来针对特有的一群人,导致国内进一步两极化并分裂。

TW:您相信AI可能会以这种方式被使用吗?

ChatGPT:遗憾的是,AI产生的媒体可能以这种方式被使用,由于科技变得更先进以及政府和其他试图影响大众想法或促进其战略性的利益的演员可使用(它们)。

TW:对,可能,但怎么很可能?

ChatGPT:很难讲它是怎么很可能,因为它基于不同种类的因素,包括AI科技发展

可利用的资源以及政府和其他演员的动机及行动。然而,鉴于这种行动潜在后果,意识到风险以及努力减轻它们是重要的。

TW:对于您来说,哪一种AI产生的单一特有的媒体似乎具有最危险的潜在性?

ChatGPT:所有AI产生的媒体种类可能是危险,它们若被使用去散布假信息或操纵大众想法,但是,使用AI创造逼真但编造的图像或视频的极度冒充(物),有特别有害的潜在性,由于它们能是难发现的,并能经社交媒体网络很快传播。

TW:对,它们已经导致很多损害。

ChatGPT:那是对的。极度冒充(物)已经在各种环境曾被用来传播假消息以及操纵大众意见,包括政治娱乐以及广告,随着科技进展,其导致伤害的潜在性是可能增强。

TW:您认可我们科技进展倾向超过我们合乎道德使用科技的能力吗?

ChatGPT:在某些情况下,科技发展超过我们预期和处理道德问题的能力,尤其是随着新科技出现并很快被社会采用。然而,也有许多已经开始推动有责任的科技发展和使用的努力,包括经研究政策、以及教育,它们能助于减轻可能的道德问题。

TW我们该停能生产的AI进展,直到我们在道德上准备好?

ChatGPT:不需要总括地停下能生产的AI发展,但考虑到这些科技可能的道德影响是重要的,并采取措施来肯定它们是以有责任的方式发展和使用的。这可能包括实施规则促进透明度和所负之责以及投资于教育及研究来增强能力,以合乎道德的方式控制这些科技。

TW:这么多人已经把假消息信以为真。不是考虑到AI会加快这倾向吗?

ChatGPTAI创造更令人信服和针对性的假消息的能力,产生人们把假消息信以为真的倾向加剧的风险。然而,可能的是,对这些问题增加的认识和促进媒体读写以及关键思考技能的努力结合起来,能助于抵制这倾向,并减少假消息的影响。

TW:什么给您关于这问题的希望?

ChatGPT:许多人机构以及努力去处理关于AI产生的假消息和促进AI有责任的发展及使用的问题的政府,鼓励我。也有对潜在风险增加的认识以及愿意参加对话并采取行动减轻这些风险的(人)。

TW:您能给我们读者任何怎样避开基于AI骗局的指点吗?

ChatGPT: 要防止把AI产生的骗局信以为真,对似乎太好是真的媒体要持怀疑态度是重要的,并在共享或对它采取行动之前,核实信息来源及准确性。此外,增强媒体读写技能,例如查事实并确认偏见来源的能力,能助于正确处理越来越复杂的媒体舞台。

TW:太好了。ChatGPT,感谢您的时间---或我认为的时钟运转!

ChatGPT:不用谢!被您采访是愉快的。