生成式人工智能,弊大于利?
2022 年 我们见证了人工智能技术的革命性突破——复杂生成模型的出现:包括DALL.E 2、Stable Diffusion、Midjourney,和最近热炒的ChatGPT。这些模型先后登上热搜和头条, 即将甚至已经开始改变我们的工作和生活方式。
生成模型将集成到我们每天使用的软件中。不久之后,我们将能够要求我们的电子邮件客户端写回复,要求我们的演示软件生成图像或要求我们的文字处理器为我们的最新报告写简介。
世界将充斥AI内容
对手创建的内容也是如此。这一刻呈现的不仅仅是一个关于意识、社会和商业如何改变的有趣的思想实验。我们识别机器生成内容的能力或无能力可能会在我们容易受到犯罪影响时产生严重后果。
从 ChatGPT 等语言模型的角度来看,自动生成书面内容的能力必然会引起犯罪分子的兴趣,尤其是网络犯罪分子。同样,任何使用网络传播诈骗、假新闻或错误信息的人都可能对一种工具感兴趣,这种工具可以以惊人的速度创建可信的、甚至可能引人注目的文本。
今天的大型语言模型完全有能力制作适合鱼叉式网络钓鱼攻击的电子邮件线程、“deepfake”一个人的写作风格、将观点应用于书面内容,甚至创建非常有说服力的假文章(即使相关信息是假的) ‘包含在模型的训练数据中。)
图像生成模型已经被广泛恶意使用
例如,thispersondoesnotexist.com 背后的模型StyleGAN2已经为对手提供了数十万个社交媒体头像。然后,语言模型将通过编写简历和帖子来完成这些虚假的配置文件。此外,人工智能艺术模型将为他们提供横幅和令人信服的媒体。
Deepfakes已经存在了几年。值得庆幸的是,到目前为止,最令人印象深刻(和可信)的例子都是由专家作为概念验证工作创建的,但技术正在改进。此外,能够生成 deepfakes 的计算机的价格也有所下降,因此 deepfakes 被创造出来只是时间问题,躲在雷达之下,然后被用来说服人们相信没有发生的事情。
坏人将如何使用生成模型呢?他们很可能会平衡成本与收入,并且只在适当的时候使用它们。然而,很明显,使用此类技术的成本会随着时间的推移而降低,并且技术会变得更加复杂。虽然一些较新的生成技术尚未在恶意场景中得到记录,但它们出现只是时间问题。
我们可以做些什么来保护自己免受合成文本、图像、声音和视频的危害?
由于生成AI技术将被同时用于创建良性和恶意内容,因此仅检测到内容由 AI生成并不足以将其判定为恶意内容。想让程序自动检测恶意内容,我们需要能够理解文字、图像和视频并从中获取意义的机制,从而能够法检测在线滥用、骚扰、虚假信息和假新闻,以及捕捉此类事物的传播和放大。
在人工智能生成大量良性和恶意内容的世界中,网络钓鱼意识和媒体素养将变得更加重要。垃圾邮件将不再包含拼写和语法错误;一封要求您点击恶意链接的钓鱼邮件将不再会有可疑的语法错误和生硬的措辞。虚假的社交媒体账户将不再使用通用面孔作为头像。假新闻网站和公司网站将显得更加真实。AI 甚至会在上面写下客户推荐。
生成式人工智能的能力正处于 S 曲线的最开始,到本世纪末,远远超过我们现在所见的技术将被集成到我们的手机、家庭助理、笔记本电脑、搜索引擎等设备中。它们将融入我们的生活,但是,生成式人工智能同样能让坏人“如虎添翼”,甚至产生更高的“价值”。
第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom
除非注明,本站文章均为原创或编译,未经许可严禁转载。
相关文章: