AI生成的视频引发了人们对全球选举中深度伪造风险的担忧

通过文本到视频转换推进AI技术

OpenAI最新的AI系统Sora具备将文本描述转化为逼真视频的能力。这一AI技术的突破引起了研究人员的兴奋。然而,这也引发了人们对在全球选举期间滥用深度伪造视频的担忧。目前,Sora可以使用文本指令或文本与图像的组合来生成长达60秒的视频。尽管生成的视频比以前的尝试更加逼真,但仍存在一些错误。OpenAI正在进行全面的测试,以确保模型的安全防护措施得以落实,然后才会向公众提供。

结合多种AI方法实现逼真视频生成

Sora结合了两种不同的AI方法,以实现更高水平的视频生成逼真度。第一种方法是一种类似于AI图像生成器中使用的扩散模型。该模型逐渐将随机化的图像像素转化为连贯的图像。第二种方法是一种“变换器架构”,可以对序列数据进行上下文化和拼接。OpenAI将视频剪辑分解为Sora的变换器架构可以处理的视觉“时空补丁”。尽管有所进展,Sora的视频仍然存在故障和错误,暂时使深度伪造视频可以被检测出来。

测试和防护措施以防止滥用

OpenAI正在采取预防措施,以防止Sora的潜在滥用。该公司正在进行“红队”演习,专家们试图突破AI模型的安全防护措施。这些测试涉及到领域专家,如虚假信息、仇恨内容和偏见。解决深度伪造视频被用于骚扰个人或操纵政治选举的担忧至关重要。OpenAI旨在与社交媒体网络和政府合作,应对Sora公开发布时可能出现的大规模虚假信息和假消息。