게시글 카테고리

Unsupervised Learning

Unsupervised Learning

많은 양의 data는 있지만, data 자체만 있고 label은 없는, unlabeled data를 마주할 때 우리는 unsupervised learning을 사용한다. unsupervised learning은 label이 없기 때문에, 알고리즘 자체적으로 pretask를 만들어서 label처럼 사용한다. 기존에는 label이 데이터의 특징이나 카테고리를 알려주었다면, 이게 없기 때문에 pretask, 뭔가의 선제적 작업을 통해서 데이터를 좀 더 잘 이해하려는 노력이라고 볼 수 있다. Unsupervised Learning에는 두 가지 큰 틀이 있는데, 바로 1. Contrastive Learning (Self-supervised Learning)2. Reconstruction-based Learnin..

Unsupervised Learning

[ECCV 2016] Unsupervised Learning of Visual Representations by Solving Jigsaw Puzzles

오늘은 SSL, Self-supervised learning의 초기 발전 과정을 보여주는 논문을 하나 다뤄보려고 한다. SSL은 데이터에 label이 없을 때 사용하는 기법이다. 데이터가 부족할 때 사용하는 기법이 아니라, 데이터는 많지만 이에 대한 사람의 label이 존재하지 않을 때, SSL 기법을 통해 데이터의 "built-in" 한 특징을 label처럼 삼아서 마치 label이 존재하는 것처럼 대하는 것이다. 이를 Pseudo label이라고 한다. 보통은 우리가 메인으로 하는 task 이외에 pseudo-label을 만들 수 있는 다른 task, pretask를 하나 만드는 방법이 대표적이다. 일부로 일거리를 하나 만들고, 그 일거리를 해결함으로써 얻는 지식이 label처럼 되는 것이다. 이 논..

Efficient Models

[CVPR 2020] Dynamic Convolution: Attention over Convolution Kernels

오늘은 Light-weight CNN에서 발생하는 performance degradation을 보완하기 위해 등장한 Dynamic Convolution 기법에 대해 알아보고자 한다. 원문링크: https://arxiv.org/abs/1912.03458 Dynamic Convolution: Attention over Convolution KernelsLight-weight convolutional neural networks (CNNs) suffer performance degradation as their low computational budgets constrain both the depth (number of convolution layers) and the width (number of chan..

Explainable AI

[ECCV 2014] Visualizing and Understanding Convolutional Networks (DeConvolution)

오늘은 deconvolution에 대해 다뤄보려고 한다. 편하게 그냥 deconv라고 하겠다. 이름에서부터 알 수 있듯이 CNN 속의 과정을 탐구하는 방법론이며, 이미지를 받아서 줄이고 줄이고 줄여가는 CNN과 반대로 우리가 관심이 있는 어떤 단계의 줄여진 친구를 다시 늘리고 늘리고 늘려가면서 최종적으로 히트맵을 출력, 특정 단계에서의 CNN이 어떤 부분에 집중하고 있는지를 알 수 있는 방법론이다. 논문 원문은 다음과 같다.https://arxiv.org/abs/1311.2901 Visualizing and Understanding Convolutional NetworksLarge Convolutional Network models have recently demonstrated impressive c..

Explainable AI

[논문리뷰] A Modified Perturbed Sampling Method for Local Interpretable Model-agnostic Explanation (MPS-LIME)

LIME을 같이 다뤘었는데, (블로그 이전 글 참조) LIME의 slight modification인 MPS-LIME이 재미있어 보여서 가지고 왔다. 원문링크:https://arxiv.org/abs/2002.07434 A Modified Perturbed Sampling Method for Local Interpretable Model-agnostic ExplanationExplainability is a gateway between Artificial Intelligence and society as the current popular deep learning models are generally weak in explaining the reasoning process and prediction res..

Explainable AI

[ICML 2018] Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV)

여태까지는 Local explanation에 해당하는 XAI 기법들만 다뤄보았다. Activation Maximization, Saliency Map Visualization, Layer-wise Relevance BackPropagation, LIME(Local Interpretable model-Agnostic Explanations), SHAP(SHapley Additive exPlanations) 모두 Local explanation 기법이다. 지금부터는 Global explanation에 해당하는 XAI 기법들을 다뤄볼 건데, 그 시작은 바로 TCAV(Testing with Concept Activation Vectors)이다. 참고로, Local explanation 기법들은 하나의 데이터..

Explainable AI

[NIPS 2017] A Unified Approach to Interpreting Model Predictions (SHAP)

오늘은 XAI framework 중 하나인 SHAP에 대해 다뤄볼 것이다. SHAP는 LIME 이후에 나온 이론적 framework로, 여태까지 이 블로그에서 다루었던 LIME, LRP 뿐만 아니라, DeepLIFT, 그리고 다른 Shapeley-valued method들을 모두 통합하는 하나의 framework이다. 그래서 논문 이름도 "A Unified Approach to Interpreting Model Predictions"이다. 위의 방법론들을 통합하는 하나의 framework이기 때문이다. 대략적으로 어떤 느낌의 방법론이냐면, LIME에서도 그랬듯이 복잡한 문제를 local의 범위에서 linear function으로 간략화하여 다루는 방법론의 큰 틀을 제시했다고 보면 될 것 같다. 원본 ..

Explainable AI

[KDD 2016] "Why Should I Trust You?": Explaining the Predictions of Any Classifier (LIME)

오늘은 XAI 분야에서 유명한 논문 중 하나인, LIME에 대해서 다뤄보고자 한다. LIME은 Local Interpretable Model-Agnostic Explanations의 줄임말이다. 제목을 보면 이 모델의 특징을 잘 알 수 있는데, 1. Local한 부분을 이용한다.2. Model-Agnostic 하다. 라는 큰 특징 2가지가 보인다. 원문은 다음과 같다(Ribeiro et al., 2016).https://arxiv.org/abs/1602.04938 "Why Should I Trust You?": Explaining the Predictions of Any ClassifierDespite widespread adoption, machine learning models remain mos..

Explainable AI

[논문리뷰] On Pixel-Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation (LRP)

이전에 다뤘던 Activation Maximization, Saliency Map 등은 각 hidden layer의 feature map을 시각화하여 설명가능한 AI를 구현하는 방식이다. 하지만 이는 깊은 layer일수록 해석이 힘들고, 사람마다 해석이 다를 수 있으며, 약간 애매모하다는 단점이 존재한다. 이번에 다룰 LRP는 HeatMap 방식의 설명을 제공하는 방법론 중 대표적인 방법론이며, 모델의 결과를 역추적해서 입력 이미지에 HeatMap을 생성하는 방식이다. https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0130140 On Pixel-Wise Explanations for Non-Linear Classifier Deci..

Explainable AI

[ICML 2017 Workshop] SmoothGrad: Removing noise by adding noise

이번에는 저번 논문리뷰인 saliency map을 조금 더 발전시킨, SmoothGrad라는 기법에 대해 알아보려고 한다. https://arxiv.org/abs/1706.03825 SmoothGrad: removing noise by adding noiseExplaining the output of a deep network remains a challenge. In the case of an image classifier, one type of explanation is to identify pixels that strongly influence the final decision. A starting point for this strategy is the gradient of the class sc..

ShinyJay
'분류 전체보기' 카테고리의 글 목록 (2 Page)