AI在线 AI在线

机器反学习

ICML2025|探索损失加权机制的本质以实现更好的LLM反学习

基于海量数据训练得到的大语言模型(LLM)表现出强大的推理和解决问题的能力,但也深受海量数据带来的敏感信息(隐私、安全、伦理问题)困扰。 机器反学习(Unlearning)旨在准确擦除目标知识,同时保持模型在其他目标任务上的能力。 基于损失加权方法的诸多探索已表现出对于LLM反学习的益处,然而,它们的具体功能并不明确,最佳策略也是一个悬而未决的问题,因此阻碍了对现有方法的理解和改进。
8/6/2025 5:03:00 PM
新闻资讯
  • 1