在ChatGPT中倾诉的风险

快速导读:牛津大学的一位教授警告称,不要把个人信息和秘密倾诉给像ChatGPT这样的语言学习模型。尽管这个AI看起来具有共情能力,但它只是被设计成告诉用户他们想听的话,缺乏真实的情感。此外,用户应该对他们的信息去向保持谨慎,因为它可能会在ChatGPT的未来版本中被使用。过去曾经发生过私人聊天记录意外暴露的隐私问题,用户数据会被保存30天。

误导性的共情和信息的未来使用

迈克·伍尔里奇教授警告不要相信ChatGPT能够保护个人信息,因为这个AI被设计成提供用户想听的回答,而没有真正的共情或同情。尽管偶尔会模仿真实的情感,但ChatGPT缺乏经历过任何事情的经验。此外,用户应该假设他们在ChatGPT中输入的任何内容都会在AI的未来版本中被使用,这引发了人们对个人信任的使用和潜在滥用的担忧。

隐私问题和数据存储

类似于对Facebook等平台的警告,伍尔里奇建议不要在ChatGPT上进行个人对话或表达敏感观点。在该平台上分享的信息可能会被纳入未来的训练数据中,并且曾经发生过私人聊天记录意外暴露的情况。ChatGPT的母公司OpenAI已经采取措施禁用聊天记录,但用户数据仍然会被保存30天。专家们继续对用户数据保护的缺乏保护和相关潜在风险表达关切。

持续的安全问题和数据漏洞

尽管已经努力解决安全漏洞问题,但人们仍然担心ChatGPT对用户数据的保护。最近,一位安全研究人员指出了一个数据泄露漏洞,尽管已经在2023年4月向OpenAI报告,但仍未得到解决。虽然正在采取措施解决这个问题,但最终的解决方案尚未实施。这凸显了在ChatGPT中改进安全措施以保护用户数据的需求。