OpenAI在使用政策中取消对军事用途的禁令

OpenAI使用政策的变化

OpenAI最近从其使用政策中取消了对其技术军事用途的禁令。先前的政策明确禁止与武器开发、军事和战争相关的活动。更新后的政策侧重于不对自己或他人造成伤害的更广泛原则。尽管新政策没有明确提及军事用途,但不清楚它是否包含了所有军事应用。这些变化是作为对政策页面的重大改写的一部分进行的,旨在使其更清晰易读。

AI安全和不明确性的担忧

专家对OpenAI政策中取消军事用途禁令表示担忧。他们认为新政策强调合法性而非安全性,并对OpenAI如何执行该政策提出了问题。对于AI安全的潜在影响是重大的,因为像ChatGPT这样的大型语言模型已经出现了偏见和准确性不足的情况。在军事战争中使用语言模型可能导致不准确和有偏见的行动,造成伤害和平民伤亡。

对军队和AI采用的影响

取消对军事用途的禁令正值全球各国军队渴望将机器学习技术纳入其行动的时候。虽然OpenAI的技术可能不会直接杀人,但它可以用于各种与杀人相关的任务,比如编写代码或处理采购订单。五角大楼已表达了使用ChatGPT或其他大型语言模型进行分析和决策的兴趣。然而,人们仍然担心LLM输出的准确性和真实性,以及分析敏感数据所带来的安全风险。OpenAI与微软这一主要国防承包商的紧密合作进一步引发了有关军事承包和战争行动的问题。