Risk
OpenAI超级对齐团队解散,伴随着离职浪潮
快速导读:OpenAI证实,其“超级对齐团队”已经解散,多名研究人员离职,包括该团队的共同领导Ilya Sutskever。该团队的工作将被整...
OpenAI的准备框架:增强AI安全性
准备框架的科学驱动方法 OpenAI的准备团队致力于确保前沿AI模型的安全性。他们与其他部门密切合作,包括安全系统和超对齐,为未来的超级智能A...
OpenAI发布了应对AI模型的“灾难性风险”框架
快速导读:OpenAI推出了一个框架,用于评估和减轻其日益强大的人工智能(AI)模型所带来的“灾难性风险”。该框架包括一个准备团队,将监控A...
OpenAI 扩展内部安全流程以应对人工智能威胁
OpenAI的安全咨询小组和更新的框架 OpenAI正在采取措施来应对与人工智能开发相关的风险,通过成立安全咨询小组并更新其准备框架。咨询小组...
开发AI治理模型的重要性
开发AI治理模型 一位发言人强调了创建AI治理模型的重要性,并主张建立一个国际机构来确保这项强大技术的安全和公平分配。这一认识是在需要解决AI...
Tags