2023-10-27 14:41:16 作者:姚立伟
感谢网友的线索投递!OpenAI在最新公告中表示,公司正组建一个新团队来应对与人工智能相关的"灾难性风险"。这个团队将对可能引发的重大问题进行跟踪、评估、预测和保护。OpenAI指出,尽管他们相信AI有能力超过现有的最先进的模型,并有可能造福全人类,但同时也带来了越来越严重的风险。这些风险包括核威胁、生物、化学和放射性威胁等。
为了解决这些问题,该团队将努力减轻一系列AI可能引发的重大风险,以及由AI“自我复制”行为带来的潜在风险。OpenAI表示,公司需要确保拥有高能力AI系统所需的理解和基础设施。为此,该团队由原麻省理工学院可部署机器学习中心主任Aleksander Madry领导,并制定了名为“风险知情开发政策”的一项计划,用以概述公司在评估和监控大模型时所做工作。
值得一提的是,在上月底,非营利组织AI安全中心发表了一项声明:“将减轻人工智能带来的灭绝风险,将其放在和流行病、核战等社会问题同等高度,并作为全球优先事项推进。”这一倡议得到了包括OpenAI首席执行官山姆·阿尔特曼在内的多位AI行业大佬的支持。