読んだ論文:Boundary Unlearning (CVPR 2023)
どんなもの?
Unlearning手法の一つとしてboundary unlearningという手法を提案。boundary unlearningはboundary shrinkとboundary expandingという2つの手法を指しており、どちらもunlearning対象のクラス以外の性能を保ったまま、unlearning対象のクラスを忘れることができる。
![](https://i0.wp.com/10001ideas.com/wp-content/uploads/2024/02/image-7-1024x389.png?resize=640%2C243&ssl=1)
先行研究と比べてどこがすごい?
先行研究では忘れたクラスの情報が残っていたり、学習に長い時間がかかるなどの欠点があった。本手法では性能の改善と高速に学習可能な手法を提案している。
どうやって有効だと検証した?
クラス数を減らした状態で再学習した場合のdecision spaceを観察することで、unlearning対象のサンプルは他のクラスのdecision boundaryに行きつく傾向を見つけている。そのため、adversary trainingのような考え方で、unlearningサンプルを他のクラスになるように学習していく。
![](https://i0.wp.com/10001ideas.com/wp-content/uploads/2024/02/image-3-982x1024.png?resize=640%2C667&ssl=1)
![](https://i0.wp.com/10001ideas.com/wp-content/uploads/2024/02/image-4-1024x487.png?resize=640%2C304&ssl=1)
手法の有効性はCIFAR-10とVggface2の二つのデータセットで、retrain, finetuneと他の既存手法と比較。
![](https://i0.wp.com/10001ideas.com/wp-content/uploads/2024/02/image-5-1024x351.png?resize=640%2C219&ssl=1)
全体的に性能が高く、他の手法よりも高速に実行できるところが利点。
![](https://i0.wp.com/10001ideas.com/wp-content/uploads/2024/02/image-6-1024x675.png?resize=640%2C422&ssl=1)
議論はある?
全体的にboundary shrinkの方が、boundary expandingよりも良い結果に見える。boundary expandingはより高速なのが利点だと思われるが、現実的にはどこまでこの差異が優位に働くのかは気になる。
次に読むべき論文は?
“Aditya Golatkar, Alessandro Achille, and Stefano Soatto. Eternal sunshine of the spotless net: Selective forgetting in deep networks. In Proceedings of IEEE/CVF CVPR, pages 9304–9312, 2020.”