본문 바로가기

Review/Reading

(6)
Unsupervised Anomaly Detection for Tabular Data Using Noise Evaluation 논문 리뷰 Jicong Fan 교수방에서 나온 논문이고 (논문링크) AAAI25에 accept되었다. related work 조사를 안하는건지 아니면 못본척 하는건지 TabAD SOTA 논문들과 비교를 안하고 있다. 또 용어도 최근에 다시 정립된 용어를 쓰지 않고....ㅠㅠㅠ 옛날에 써둔걸 제출한건가 싶다. (TabAD에서는 normal만 train하는 setting을 최근 semi-supervised라 부르고 있는데 unsupervised AD로 부른다던가...) 하지만 idea자체는 명료하고 말이 된다. 앞선 포스팅에서의 PReNet은 real anomaly를 활용하여 normal과 anomaly와의 점수차를 학습하였다면, 해당 논문은 real anomaly 없이 noise를 추가한 샘플이 hard anomal..
Deep Weakly-supervised Anomaly Detection 논문 리뷰 이 논문의 baseline이기도 한 DevNet의 저자인 Guanson Pang의 후속연구로 KDD23에 accept된 Deep weakly supervised anomaly detection 논문을 리뷰하려고 한다. Real-world에서는 기존에 많이 연구되는 normal만으로 training하는 setting보다 labeled anomaly도 일부 존재하는 상황이 더 있음직하다. 해당 논문은 더 나아가 seen anomaly가 전체 anomaly를 대표하지 못하는 경우를 가정한다. 상황도 납득이 가고 data pair를 3가지 조합으로 만들어 학습의 다양성을 높이고 조합에 따라 점수를 다르게 주어 binary가 아닌 3-level의 score를 학습한다는 점이 신박하고 쉬워서 재밌게 읽었다.Intr..
DRL: DECOMPOSED REPRESENTATION LEARNING FOR TABULAR ANOMALY DETECTION 논문 리뷰 ICLR 2025에 따끈따끈하게 accept된 tabular AD paper (논문링크)이다. latent disentangle로 tabular AD를 잘해보겠다는 접근이다. 특히 separation loss는 AD에 특화된 loss였는데 왜 효과가 있는지 증명까지 해줘서 납득이 되는 연구였던 것 같다.IntroductionTabular ADTabular data는 heterogeneous feature의 vector들로 표현되는데 Anomaly detection에서 필수적인 data type이다. (금융, 의료 등등 다양한 분야에서 tabular data AD가 필요) 대부분의 real-world scenario에서 labeled anomalies는 domain experts에 의해 annotation..
Self-supervised learning (자기지도학습)과 Contrastive learning (대조학습): 개념과 방법론 톺아보기 ** 본 포스팅은 NeurIPS2021의 self-supervised learning 튜토리얼에 필자의 소소한 설명을 덧붙인 글입니다.  Supervision을 위한 대량의 labelled data 특히 high-quality의 labelled data를 얻는 것은 비용이 많이 든다. unlabelled dataset만으로 task-agnostic하게 데이터를 잘 표현하는 '좋은 representation'을 얻으면 얼마나 좋을까? "unsupervised learning을 통해 좋은 representation을 얻는다면 다양한 downstream task에 빠르게 적응할 수 있을 것이다, 더 나아가서는 supervision보다 더 좋은 성능을 얻을 수 있을 것이다" 라는 생각에서 self-supervi..
Semi-supervised learning (준지도학습): 개념과 방법론 톺아보기 Semi-supervised learning overview 논문 [14-16] 및 여러 방법론 관련 논문들 [1-13] 읽으며 얻은 지식을 바탕으로 글로 정리해보려고 한다. 오랜만에 쓰는 기술글이라 설렌다!! 나도 처음 공부하는 분야이기 때문에 부족한 부분도 있겠지만, 틀린 부분이나 덧붙여 설명이 필요한 부분이 있다면 댓글에 남겨주시면 더 풍부한 글이 될 것 같다. 그럼 시작! Supervised learning 의 한계 딥러닝의 가장 대표적인 방법론은 supervised learning (지도학습)이다. 하지만 supservised learning은 어쩌면 학습 데이터의 패턴을 외우는 학습법에 불과하다. 그러므로 한번도 보지 않은 데이터에 대해서는 맞추기 쉽지 않다. 일반화가 잘되기 위해서는 필연적으..
Glow: Generative Flow with Invertible 1X1 convolutions 논문 리뷰 논문은 이곳에 링크를 걸어두겠다. ​동아리에서 논문세미나(WaveGlow)를 했던 내용으로 발표영상도 있으니 참고하면 좋겠다. 순서로는, 생성모델의 종류를 알아본다. flow기반 방법을 이해하기 위한 수학적 근간을 알아본다. flow기반 방법의 수식을 이해해본다. Normalizing flow가 복잡한 분포를 생성해내는 것을 알아본다. Glow가 어떻게 normalizing flow를 구현했는지 model구조를 알아본다. Generative model의 3가지 유형 1. Generative adversarial networks(GAN) GAN은 생성자(generator)와 구분자(discriminator)로 구성되어있다. 구분자는 생성자가 생성해낸 fake sample들로부터 진짜 데이터를 구별하는 일을..