OpenAI官宣AI大模型「安全认证团队」:将模型危险级别分为4个等级,董事会对于新模型发布拥有裁决权

来源: aicg搜索 日期:2025-05-07 09:40:16
aicg搜索首页AI教程资讯 → OpenAI官宣AI大模型「安全认证团队」:将模型危险级别分为4个等级,董事会对于新模型发布拥有裁决权

当地时间12月18日,OpenAI官方连发多条推文,隆重宣布了自己的「(大模型)准备框架」(Preparedness Framework)。

在经历了各种大大小小的风波之后,OpenAI终于把人工智能的安全问题摆到了台面上。

这套框架的目的,就是监控和管理越来越强的大模型,防止哪天我们一不留神进入了「黑客帝国」。

我们正在通过准备框架系统化自己的安全思维,这是一份动态文件(目前处于测试阶段),详细说明了我们正在采用的技术和运营投资,以指导前沿模型开发的安全性。

准备团队将推动技术工作,突破尖端模型的极限,不断跟踪模型风险。

新的安全基线和治理流程,跨职能的安全咨询小组。

规定模型能够被部署或者开发的条件,增加与模型风险相称的安全保护。

众所周知,之前奥特曼被董事会炒掉的一个导火索,就是大模型的安全问题。

在必要的时候,公司发展中的这个隐患必须得到解决。

从技术和治理的角度来说,面对当前的人工智能,人类确实要尽早考虑未来发展中的风险。

OpenAI的核心人物Ilya很早就开始提醒人们,要充分重视人工智能的安全问题。

除了演说,还带头组建了OpenAI的超级对齐团队(Superalignment),并做出了超前的研究。

比如下面这篇工作,研究了弱模型监督能否引出强模型的全部功能,毕竟相对于强AI,我们人类可能已经是「弱模型」了。

Ilya目前并没有对OpenAI的这个框架作出回应,而是“超级对齐”团队的另一位负责人发表了动态:

我很高兴今天OpenAI采用了其新的准备框架!

该框架阐明了我们衡量和预测风险的策略,以及我们承诺在安全缓解措施落后时停止部署和开发。

读完这篇文章后,您心情如何?

  • 0 喜欢喜欢
  • 0 顶
  • 0 无聊无聊
  • 0 围观围观
  • 0 囧
  • 0 难过难过
相关资讯
推荐阅读
网友评论

热门评论

最新评论

发表评论

昵称:
表情: 高兴 可 汗 我不要 害羞 好 下下下 送花 屎 亲亲
字数: 0/500 (您的评论需要经过审核才能显示)
相关推送
1CodeGeex查看 2免费ChatGPT中文版—ChatGai查看 3AI提示语查看 4Tiamat AI查看 5BibiGPT - AI音视频一键总结查看 6Replace Background— ClipDrop查看 7iFoto查看 8 AutoDraw查看
AI使用攻略
更多+

CG艺术长廊 | AI技术前沿 | 创新应用案例 | 行业深度解析 | 搜索技巧指南 | 社区互动论坛 | AI教程资讯 | 网站地图

Copyright 2009-2016 //www.aisoh.cc/ 版权所有