.png?width=48&height=48&name=image%20(3).png) ](https://blog.avast.com/author/emma-mcgowan) 2024年1月30日
随著AI生成的泰勒·史薇芭(Taylor Swift)色情图片在X平台(前称Twitter)上走红,我们不禁想问:这对AI的未来意味著什么?
最近,一起令人不安的事件中,AI生成的迅速充斥于X平台,展现了AI能力的阴暗一面。这些图片据信是使用微软设计工具创建的,引起了广泛关注,突显了AI生成虚假色情内容日益严峻的挑战。
随著这些图片在平台上的迅速扩散,此事件不仅引发了粉丝和隐私维护者的愤怒,还提出了有关AI在媒体创作中伦理使用的重要问题。
Avast威胁情报总监MichalSalát以其丰富的知识和专业经验参与这场及时的讨论。凭借对技术、安全与伦理交汇处的敏锐洞察,Salát提供了关于AI生成内容影响的细致观点。
接下来的部分,我们将深入探讨他的见解,探索图片操控的历史平行、AI能力所带来的伦理困境,以及在这个愈加依赖AI的世界中,对数字信任与安全的更大影响。
Salát将AI生成真实感图片的能力与过去使用Photoshop进行的图片编辑进行对比。就像Photoshop在多年之前革命性地改变了图片操控一样,AI现在也大大简化了创建真实图片的过程。然而,操控图片的概念并不新鲜;AI只是成为了这一持续故事中的最新工具。
“在某种程度上,这只是另一种照片编辑软件,”他解释说,强调操控图片的概念已经是个问题超过十年。现在的主要区别在于,AI技术带来的简便性和可及性。这一变化引发了社会如何适应并规范这些新工具的重要问题,因为这些工具使创建真实图片变得比以往任何时候都要容易。
最迫切的担忧之一是使用AI生成露骨图片的伦理影响,尤其是针对特定个体而未经他们的同意。虽然生成普通的裸露图片可能不会引发太多伦理问题,但真正的问题在于轻易创造出识别性人物的露骨图片。
“AI生成色情内容本身可能并不存在根本性或伦理上的问题,”Salát表示。“但对我来说,伦理问题在于,你可以相对轻松地生成带有已知或特定面孔的图片。”
这一能力不仅限于像泰勒·史薇芭这样的名人,还可能涉及任何人,突显了制定伦理准则和立法的必要性:虽然所谓的“报复色情”(即非自愿分享裸体照片)在48个州已经,但AI生成的深伪色情内容目前仅在10个州。这一显著的差异凸显了立法需要赶上科技的必要性。
或许因为生成AI的访问权限相对较新,导致在未经对象同意的情况下创建露骨内容的护栏相对较少。然而,Salát认为,对于AI公司来说,实施这些护栏并不会太困难:例如,不允许生成特定人员的图片,或不使用用户提交的图片作为素材,将能为绝大多数人提供足够的障碍。
“当然,仍然会有人能突破这些限制,迫使模型执行不应该做的事,”Salát说。“就目前来看,我认为几乎无法避免这种情况——你只能让其变得更困难。我想表达的是,提供这些服务的公司应该更努力地去避免这种情况。”
也有可能有人创建自己的无限制的色情生成模型。然而,Salát指出,尽管这是可能的,但这将需要大量的技术知识和计算能力。
“能够自己创建生成裸体图像的AI的人并不多,”Salát说。“因此,这会更像是使用Photoshop,需要达到一定的技术水平才能做到。”
Salát将当前AI发展的状态与安全行业的演变进行了比较。他观察到,安全行业“正在重新开始引入AI”。这一比较强调了将AI发展视为一个持续过程的重要性,在此过程中,识别和修复漏洞对技术的成熟至关重要。
在X平台上出现的泰勒·史薇芭生成图像突显了负责任使用AI的重要性。随著AI不断进步,平衡技术能力与伦理考量、以及安全措施将至关重要。通过向像MichalSalát这样的专家学习并反思过去的挑战,我们可以以更具资讯和谨慎的方式导航这一复杂的环境。
Leave a Reply