新系统亮相洞悉模型内在机制审查其安全性

  • 新系统亮相:洞悉模型内在机制,审查其安全性

    新系统亮相:洞悉模型内在机制,审查其安全性

    7月25日消息,麻省理工学院计算机科学与人工智能实验室的研究人员开发了一种名为“MAIA”的多模式自动化可解释性代理系统,该系统可以使用视觉语言模型来自动执行各种神经网络可解释性任务。麻省理工学院(MIT)计算机科学与人工智能实验室(CSAIL)最新研发了名为MAIA系统,可以使用视觉语言模型来自动执行各种神经网络可解释性任务。MAIA的全称是MultimodalAutomatedInterpretabilityAgent,直译过来为“多模态自动可解释性代理”,主要利用视觉语言模型,自动执行各种神经网络可解释性任务...

1