泰勒斯威夫特的深伪色情影片并不新鲜但这并不意味著我们不应该感到担忧。

![Emma McGowan](https://486579.fs1.hubspotusercontent- na1.net/hub/486579/hubfs/image%20(3) .png?width=48&height=48&name=image%20(3).png)
2024年1月30日

在泰勒·斯威夫特(Taylor Swift)的AI生成色情图像在社交平台X(前Twitter)上迅速走红之后,我们不禁想问:这对AI的未来意味著什么?

最近,一些AI生成的色情图片在X上引发热议,揭示了AI能力的黑暗面。这些被认为是使用微软设计工具创建的图像,吸引了广泛关注,并凸显了AI生成假冒色情的挑战越来越大。

随著这些图片在平台上迅速传播,事件不仅引发了粉丝和隐私倡导者的愤怒,还提出了关于AI在媒体创作中的伦理使用的关键问题。

Avast威胁情报主任米哈伊·萨拉特(MichalSalát)在这一时事讨论中提供了丰富的知识和专业见解。萨拉特对科技、安全和伦理的交汇有敏锐的洞察力,对AI生成内容的影响提供了细致的观点。

接下来的部分,我们将深入探讨他的见解,探索影像操控的历史类比、AI能力带来的伦理困境,以及在日益被AI驱动的世界中,数位信任和安全的更广泛影响。

假色情不是新问题

萨拉特指出,当前AI生成逼真图像的能力与过去使用Photoshop之间存在相似之处。正如多年来Photoshop彻底改变了图像操作方式,现在AI大大简化了创建现实图像的过程。然而,图像操控的想法并不新鲜;AI只是这一持续 saga 中最新的工具。

“某种程度上这只是另一种照片编辑软件,”他解释道,强调操控图像的概念已经存在十多年。现在的主要区别在于AI技术带来的易用性和可及性。这一变化引发了重要问题,让我们思考社会如何适应并监管这些新工具,因为这些工具使得创建逼真图像比以往任何时候都更容易。

AI和色情内容的伦理困境

最令人担忧的议题之一是使用AI生成特定个体(尤其是未经同意的情况下)的色情图像的伦理影响。虽然生成一般的裸体图片可能不会引发太多伦理问题,但真正的问题在于创建可识别的个体的色情图像的便利性。

“AI生成的色情本身可能并没有什么错或伦理问题,”萨拉特说。“但对我来说,伦理问题在于你可以相对轻易地生成带有已知或特定面孔的图像。”

这一能力不仅限于像泰勒·斯威夫特这样的名人,还可能延伸到任何人,这凸显了制定伦理指导方针和立法的必要性:所谓的“报复色情”(或非自愿分享裸体照片)在48个州是,但是AI生成的深度假冒色情目前

AI公司如何防止深度假冒色情的产生?

或许因为生成AI的使用相对较新,为未经主体同意的色情内容创建设置的保护措施非常有限。然而,根据萨拉特的说法,对AI公司来说,实施相关措施其实并不困难:例如不允许生成特定人的图像,或者不使用客户提交的图像作为素材,这就为绝大多数人提供了足够的障碍。

“当然,有些人能够突破这些限制,迫使模型做它不应该做的事情,”萨拉特说。“我认为目前几乎不可能避免这种情况——你只能让它变得更难。我想强调的是,提供这些服务的公司应该更加努力去避免这种情况发生。”

还有可能有人创建不受任何限制的专业生成色情的模型。不过,萨拉特指出,尽管这是可能的,但要做到这一点需要非常多的技术知识和计算能力。

“能够自己创建AI来生成裸体的人并不多,”萨拉特表示。“所以这更像是使用Photoshop,你需要具备一定的技能才能做到这一点。”

萨拉特把当前AI发展状况与安全行业的演变进行了比较。他观察到,我们正在见证安全行业“从头开始使用AI”。这一比较突显了将AI发展视为一个持续过程的重要性,识别和修复漏洞是成熟技术的关键。

在X上出现的泰勒·斯威夫特AI生成图像强调了负责任使用AI的重要性。随著AI持续进步,在技术能力与伦理考量和安全措施之间取得平衡将变得至关重要。通过向像米哈伊·萨拉特这样的专家学习并反思过去的挑战,我们可以在这一复杂的领域中更加明智和谨慎地前行。

Leave a Reply

Required fields are marked *