MAIA新系统亮相:洞悉AI模型内在机制,审查其安全性
创始人
2024-07-25 20:00:31

7 月 25 日消息,麻省理工学院计算机科学与人工智能实验室的研究人员开发了一种名为“MAIA”的多模式自动化可解释性代理系统,该系统可以使用视觉语言模型来自动执行各种神经网络可解释性任务。

麻省理工学院(MIT)计算机科学与人工智能实验室(CSAIL)最新研发了名为 MAIA 系统,可以使用视觉语言模型来自动执行各种神经网络可解释性任务。

MAIA 的全称是 Multimodal Automated Interpretability Agent,直译过来为“多模态自动可解释性代理”,主要利用视觉语言模型,自动执行各种神经网络可解释性任务,并配备了在其他人工智能系统上进行实验的工具。

研究论文的共同作者,来自 MIT CSAIL 的博士后 Tamar Rott Shaham 表示:

我们的目标是创建一个能够自主进行可解释性实验的人工智能研究人员。现有的自动可解释性方法只是在一次性过程中对数据进行标注或可视化。

另一方面,MAIA 可以生成假设,设计实验对其进行测试,并通过迭代分析完善自己的理解。

通过结合预先训练好的视觉语言模型与可解释性工具库,我们的多模态方法可以在特定模型上组成和运行有针对性地实验,来响应用户的询问,不断完善其方法,直至能够提供全面的答案。

该自动代理被证明能够完成三项关键任务:

可以为视觉模型内部的各个组件贴标签,并描述激活这些组件的视觉概念

可以通过去除无关特征来清理图像分类器,使其对新情况更加稳健

还可以寻找人工智能系统中隐藏的偏差,帮助发现其输出中潜在的公平性问题。

MAIA 可以通过生成假设、设计实验来测试假设,并通过迭代分析改进其理解,从而解释人工智能模型的内部机制,帮助我们了解人工智能模型如何运作,并探究其安全性和偏差。

【来源:IT之家】

相关内容

热门资讯

Hero3-2KSG,坦然压制... Hero3-2战胜KSG,难道TTG才是3组最强的存在。这场比赛给我的感觉就是不比谁打的好,就比谁错...
家长注意:警惕孩子看“变味”的... 近年来,AI技术在影视领域得到广泛运用,极大地丰富了群众的文化生活。然而“新华视点”记者近日发现,一...
9天连发两个模型,王小川在“急... 真正的颠覆式创新,不只是技术上的颠覆。 作者|刘杨楠 编辑|栗子 1月22日,北京赛尔大厦。在距离B...
原创 魂... 大家好,我是正在制作榜单的何二维一。 今天的攻略咱们来把最新的全SP魂师节奏榜做一期更新,话说目前依...
原创 猎... 大家好,我是正在冥想的何二维一。 今天的攻略咱们来聊聊即将更新的1.5版本相关适宜,目前官方是还没有...