1day_1paper
1day_1paper copied to clipboard
[78] Understanding Failure Modes of Self-Supervised Learning
from weekly arxiv AI 만담
SSL로 학습된 모델에서 오분류되는 이미지들을 평가하는 Q-score 제안
제대로 분류되는 이미지는 sparse & 특징이 드러나는 feature들이 존재. 잘못 분류되는 이미지 피처는 그 반대
Encoder를 통과한 latent feature 를 활용하여 Q-score를 제안 (Z-score를 피처의 L1-norm을 노멀라이징)
Q-score 노멀라이징하면 SSL --> 분류문제 적용시 정확도가 훨씬 향상된다고.
SimCLR, SwaV, MoCo V2, BYOL 4개의 모델에 대해 조사했음. sample-wise Self-Supervised Representation Quality Score (or, Q-Score) 제안.
contribution
- success case, failure case Feature 비교 및 차이점 찾아냄
- Self-Supervised Quality Score (Q-Score) 제안. 높은 Q-score 달성하면 높은 classification 성능.
- Q-Score 를 regularizer 로 활용. classification 성능 3.26% 향상
- Q-Score regularization 이 noise 를 없애고, 중요한 정보들을 강화시켜 준다는 점 확인
Q-score
Visualize features
pretrained SimCLR 을 ImageNet-100 에 finetune 시키고, feature를 뽑는다. (learnable linear 붙임)
class 별 average feature 들을 쭉 구하고, magnitude 가 가장 큰 값을 map 에 찍어 보았다.
왼쪽은 잘 classify 한 애들, 오른 쪽은 classification 실패한 애들.
Notation
f(.) ==> encoder g(.) ==> MLP projection head x, x^~ ==> 2개의 view h, h^~ ==> 2개의 view 를 encoder 에 통과시켜 얻은 feature z, z^~ ==> 2개의 view 를 encoder&MLP 에 통과시켜 얻은 feature
Encoder feature scores
encoder 를 거쳐 나온 h feature 들을 이용해 다음 값들을 구할 수 있다.
Q-score
Q-score 는 Encoder를 통과한 latent feature 를 활용하여 구한다.
Z-score를 피처의 L1-norm을 normalize
튀는 값이 크게 있으면, not-noisy 하다는 이야기고 그게 좋은 feature라는 이야기
Q-score regularization
기존 SimCLR loss 가 다음과 같으니,
여기에 regularzation term 을 붙임
근데 실험적으로, 이렇게 reg 를 붙이면, feature 하나만 극단적으로 사용하는 것이 trivial solution이게 된다.
그래서, 모든 데이터셋 내부의 feature 를 활용해서 term 을 하나 더 붙인다.
2N 인 이유는, N개의 set 에 대해 2개의 view 가 있기 때문.
l은 encoder output dimension임
여기서, 모든 데이터 셋의 feature index 별 l1 norm feature 를 다음과 같이 표기한다.
최종 loss 는 다음과 같다.
λ1 = 0.1, λ2 = 0.1
Q-score 괜찮은 거임?
Not bad.
Results
Q-score regularization 을 적용하면 feature 가 요렇게 변한다.