理论固然重要,但实际性能才是评价一个算法的关键标准。SAFE团队在多个具有挑战性

酸酸甜甜小苏 2025-06-13 00:54:50

理论固然重要,但实际性能才是评价一个算法的关键标准。SAFE团队在多个具有挑战性的计算机视觉数据集上进行了全面测试,结果令人印象深刻。 SAFE的主要竞争对手包括两类方法:基于原型的分类器(受ARCANE启发)和SISA(一种将数据均匀分片的方法)。研究团队使用相同的架构和训练方案重新实现了这些基线方法,以确保直接比较的公平性。 实验结果显示,SAFE在所有遗忘预算下都优于SISA和基于原型的方法。特别是在低遗忘时间预算(即高碎片化)的情况下,SAFE因为更好地利用了协同信息,大幅超越了SISA。 具体到不同数据集,当碎片数量从8增加到256时,SAFE在Caltech-256上的准确率仅从94.0%降至93.3%,而SISA则从93.6%降至84.6%。在更具挑战性的CUB-200数据集上,SAFE的准确率从86.1%降至84.5%,而SISA则从83.9%急剧下降至63.7%。这些数据清晰地表明了SAFE在保持高准确率同时实现高效遗忘方面的优势。 为了进一步验证SAFE各组件的有效性,研究团队进行了消融实验。他们发现,仅使用协同信息就比SISA表现更好,而将原型分类器添加到SISA中(形成ProtoSISA)虽然提高了性能,但SAFE仍然显著优于两种方法,证明了协同信息和原型分类器两方面的重要性。 在实际应用中,服务提供商有时需要即时满足遗忘请求,即在不进行重训练的情况下删除整个数据源。研究团队测试了SAFE、SISA和ProtoSISA在这种情况下的表现。结果显示,经过一系列遗忘请求后,SAFE表现出较小的相对准确率下降,始终优于SISA和ProtoSISA。对于所有方法,随着遗忘请求数量的增加,准确率的边际下降也在增加,这表明集成模型在丢弃额外预测器时变得更加敏感。 SAFE还能够支持"按需定制"模型,即为每个用户构建一个只使用与其访问权限和个人偏好一致的数据的唯一模型。这可以通过仅集成用户有权访问的节点上训练的适配器来实现,或者通过模拟人工"遗忘请求"删除用户无法访问的所有数据并重新训练相应的InCA适配器。由于InCA适配器可以在几秒钟内训练完成,这种方法有可能高效地为不同用户提供定制模型。

0 阅读:0
酸酸甜甜小苏

酸酸甜甜小苏

酸酸甜甜小苏