人工智能的黑暗面:儿童虐待者利用深度伪造技术进行性勒索

快速导读:儿童虐待者利用人工智能生成的“深度伪造”技术来勒索受害者,迫使他们拍摄自己的虐待行为,从而不断延续性勒索的恶性循环。英国表达了禁止使用真实人物的明确人工智能生成图像的意愿,但全球对如何监管这项技术缺乏共识。广泛可得的训练数据集中包含儿童性虐待材料(CSAM),这带来了重大挑战。虽然已经采取了过滤显性内容的措施,但潜在的伤害仍然存在,并且使用开源数据集进一步复杂化了问题。

监管人工智能生成图像的挑战

在大型人工智能图像生成器的训练集中发现儿童性虐待材料(CSAM)的情况突显了有效监管这项技术的困难。涉及的数据集名为Laion,包含数十亿张图像,使得手动检查变得不切实际。研究人员不得不开发自动扫描方法,以识别可疑图像并与执法机构的记录进行比对。然而,该数据集已经被广泛使用,基于它训练的人工智能系统仍然会生成显性内容。

开源数据集和伤害风险

Laion只是一个开源数据集的例子,它已被用于训练人工智能模型。尽管最终已被停止分发,但损害已经造成,因为已经在全球范围内使用包含非法训练数据的人工智能模型。相比之下,像OpenAI这样的公司提供有限的模型访问,并采取额外措施来过滤显性内容。然而,确保完全干净的数据集仍然是一个挑战,而仅依靠训练模型来避免生成显性图像的限制也得到了认可。

人工智能监管和开源开发的未来

针对明确目的的工具的禁止主要针对性地生成的人工智能图像,但长期挑战在于理解和限制人工智能系统的能力。全球对监管的共识缺乏以及需要平衡开源人工智能开发进一步复杂化了问题。虽然正在努力解决这个问题,但人工智能技术的复杂性和潜在的伤害使得有效监管和减轻与人工智能生成的显性内容相关的风险成为一个持续的挑战。