AI 动力工具产生不准确的选举信息,研究发现

快速导读:AI民主项目和Proof News的最新研究发现,包括谷歌的Gemini和OpenAI的GPT-4在内的AI动力工具,超过一半的时间内产生不准确和有害的选举信息。这引发了人们对选民可能收到虚假或误导性信息以及其对选民投票率可能产生的影响的担忧。该研究还强调了AI模型生成不合逻辑的回应和过时信息的倾向,例如建议不存在的投票地点或提供错误的选举规定。

对AI模型在选举中准确性的担忧

最新一代的AI技术以其生成文本内容、视频和音频的能力而受到赞誉,被认为具有提供快速可靠信息的潜力。然而,研究发现,包括Meta的Llama 2和OpenAI的ChatGPT-4在内的AI模型经常提供不准确的信息。例如,Meta的Llama 2错误地声称加利福尼亚选民可以通过短信投票,而这在美国任何地方都是非法的。此外,没有一个经过测试的AI模型正确地说明穿戴竞选标志的服装(如MAGA帽子)在德克萨斯州的投票站是被禁止的。这些不准确之处引发了对AI生成信息可靠性的担忧。

在选举中滥用AI及其他挑战

尽管一些专家认为AI可以通过改进选票扫描和异常检测等流程来增强选举,但人们对其滥用存在担忧。包括政府在内的不良行为者可以利用AI生成的自动拨号和错误信息来操纵选民。此外,用户在使用AI工具时遇到了问题,例如谷歌的Gemini AI图片生成器产生了历史上不准确的信息。关于这些模型的安全性和伦理测试缺乏透明度,这引发了对它们是否过早发布的质疑。

对选民登记和公众看法的影响

该研究还发现,聊天机器人提供了关于选民登记的错误信息。在内华达州,自2019年以来允许当天选民登记,五分之四的聊天机器人错误地声称选民在选举日之前几周将被阻止登记。这种错误信息可能对选民参与产生重大影响。最近的一项民意调查显示,大多数美国成年人担心AI工具将在选举期间传播虚假信息。尽管存在这些担忧,目前没有法律规范AI在政治中的使用,这使得科技公司有责任自我管理。