2025_NIPS_Permissioned LLMs: Enforcing Access Control in Large Language Models

张开发
2026/4/7 3:27:57 15 分钟阅读

分享文章

2025_NIPS_Permissioned LLMs: Enforcing Access Control in Large Language Models
文章核心总结与创新点主要内容该研究聚焦企业场景下大语言模型(LLMs)的访问控制问题,提出Permissioned LLMs(PermLLM)这一新模型类别。企业数据通常按安全域隔离并受访问控制框架保护,但常规LLM在多域数据上微调后,可能向权限不足的用户泄露敏感信息。PermLLM通过叠加组织数据访问控制结构,确保模型仅基于用户有权访问的安全域数据生成响应。研究还形式化了响应相关性概念以验证访问控制正确性,提出访问优势(access advantage)指标量化机制有效性,并设计三种基于参数高效微调(PEFT)的PermLLM机制,同时通过五个公开数据集在两款主流LLM上验证了机制与评估指标的有效性。创新点形式化框架:定义“相关响应”和“访问优势”,为LLM访问控制的正确性证明和量化评估提供理论基础。三种PermLLM机制:基于LoRA适配器设计Activate(域-适配器一对一激活)、Merge(多域适配器合并)、Union(多域联合训练适配器),实现域间参数隔离。双评估指标:提出领域区分指数(DDI)基于成员推理攻击,效用差距指数(UGI)基于模型效用评估,从不同维度审计访问控制效果。实证验证:在Llama-3.1-8B和Mistral-0.1-7B模型及GPQA、RCV1等五个数据集上验证,证明PermLLM在不显著损失效用的前提下,能有效实现访问控制。译文(Markdown格式)

更多文章