[컴퓨터가 사물을 보는 방법, CNN 이론 - 1편]
https://blogs.sas.com/content/saskorea/2023/09/08/%EC%BB%B4%ED%93%A8%ED%84%B0%EA%B0%80-%EC%82%AC%EB%AC%BC%EC%9D%84-%EB%B3%B4%EB%8A%94-%EB%B0%A9%EB%B2%95-cnn-%EC%9D%B4%EB%A1%A0-1%ED%8E%B8/
[컴퓨터가 사물을 보는 방법, CNN 이론 - 2편]
[[기계분야 인공지능 최신 연구 동향] 컴퓨터 비전 주요 연구 동향]
AlexNet과 VGG는 굉장히 단순하게 구성되어 있지만, ResNet의 핵심인 Skip Connection 개념은 한번 보고 이해하는 것이 굉장히 어렵습니다 (저는 그랬습니다.) 그래서, 여러분들의 이해를 돕기 위해 유용한 영상을 가져왔습니다. ResNet이 이해가 잘 안 되신다면, 아래 영상들을 추천드립니다!
[ResNet의 Skip-connection 제대로 이해하기! - 혁펜하임]
[CNN ResNet SENet - 고려대학교 오승상]
[CNN - 메디픽셀 송교석]
어떠한 문제를 풀 때, 주어진 데이터 이외에도 외부 데이터 혹은 공개된 데이터를 활용하여 일반화 성능을 높이는 것이 중요합니다. 그러한 데이터셋을 모아둔 사이트들 중, 가장 유명한 세 가지를 공유합니다
[UC Irvine의 Machine Learning Repository]
https://archive.ics.uci.edu/datasets
[awesome-public-datasets]
https://github.com/awesomedata/awesome-public-datasets
[AIHub]
https://www.aihub.or.kr/
객체 검출을 포함한 최신 컴퓨터 비전 모형들은 처음부터 구현하기보단 어느정도 갖춰진 파이프라인 위에서 모형들을 구현하고, 검증하는 편입니다. 따라서, 우리가 프로젝트를 수행하거나, 연구를 수행할 때 이러한 라이브러리를 기반으로 시작하게 되면 굉장히 편하게 초기 실험들을 진행할 수 있습니다.
open-mmlab의 mmdetection : 거의 모든 객체 탐지 알고리즘과 관련된 모듈들을 구현해놓은 패키지
ultralytics의 ultralytics (YOLOv8, YOLOV5, 등) : 실시간 서비스를 위한 YOLO계열 모형들에 특화된 패키지
PaddlePaddle의 PaddleDetection : 병렬 처리에 최적화된 객체 탐지 알고리즘 라이브러리
실험 기록 및 다양한 ML 개발자를 위한 기능을 제공해주는 WandB와 WandB를 활용한 하이퍼파라미터 최적화에 대한 글
WandB: MLOps 도구 중 하나로, 실험 기록부터 데이터 저장, 실험 추적 등 다양한 기능을 제공합니다.
https://wandb.ai/site
Wandb.Sweep: 하이퍼파라미터 튜닝을 해주는 도구 중 하나로, 랜덤, 그리드, 베이지안 서치를 제공합니다. (예제)
https://docs.wandb.ai/guides/sweeps
BAYESIAN OPTIMIZATION 개요: 딥러닝 모델의 효과적인 HYPERPARAMETER 탐색 방법론: 베이지안 최적화를 하이퍼파라미터 최적화에 적용하는 방법과 내용이 잘 정리되어 있습니다.
https://www.cognex.com/ko-kr/blogs/deep-learning/research/overview-bayesian-optimization-effective-hyperparameter-search-technique-deep-learning-1
CV 모델에 가장 기본이 되는 Pillow 라이브러리와 협업을 위한 wandb 라이브러리에 대한 블로그
Pillow: https://gist.github.com/yunwoong7/e61e9abb419f35d9ade8f95b3cc3e696
wandb 1: https://pebpung.github.io/wandb/2021/10/06/WandB-1.html
wandb 2: https://pebpung.github.io/wandb/2021/10/10/WandB-2.html
hyperparameter들이, 실제 최적화에서는 성능에 얼마나 큰 영향을 미칠 수 있는지에 대해 보여줄 수 있는 아티클로 준비했습니다.
Learning rate & Batch size: https://inhovation97.tistory.com/32#:~:text=learning%20rate%EA%B0%80%20%ED%81%AC%EB%A9%B4%2C%20%ED%95%9C,%EC%A0%81%EB%8B%A4%EB%8A%94%20%EC%9E%A5%EC%A0%90%EB%8F%84%20%EC%9E%88%EC%8A%B5%EB%8B%88%EB%8B%A4. 오버피팅 피하는 방법: https://box-world.tistory.com/16
Grid Search: https://huidea.tistory.com/32
[멀티 모달]
https://channeltech.naver.com/contentDetail/25
https://bo-10000.tistory.com/204
https://github.com/tabtoyou/KoLLaVA
[ MLOps에 대한 간단한 소개와 HuggingFace 사용 방법 및 Fine-tuning]
최근 HuggingFace를 사용할 일이 많아서 코드를 이리 저리 뜯어보고 있는데, MLOps 직무에서 HuggingFace만 잘 써도 할 수 있는게 많아지겠다는 생각이 들더라구요. 한편으로는, HuggingFace코드와 모델카드를 읽어보면 HuggingFace를 유지하는 것 또한 만만한 일이 아니라는 것을 알게 되었습니다.
https://jaemunbro.medium.com/mlops%EA%B0%80-%EB%AC%B4%EC%97%87%EC%9D%B8%EA%B3%A0-84f68e4690be
https://seungbeomdo.tistory.com/78
https://mvje.tistory.com/117
https://seungbeomdo.tistory.com/79
[ hyperparameter tuning 방법론과 라이브러리 소개, 기존과 중복 있뇨]
Bayesian Optimization: https://www.cognex.com/ko-kr/blogs/deep-learning/research/overview-bayesian-optimization-effective-hyperparameter-search-technique-deep-learning-1
Grid Search를 위한 library 1: https://tutorials.pytorch.kr/beginner/hyperparameter_tuning_tutorial.html
Grid Search를 위한 library 2: https://docs.kanaries.net/ko/topics/Data-Science/randomized-search-verbose
Learning rate scheduler: https://wikidocs.net/157282
[제너레이션 모델 최신 동향]
최신 이미지 생성 AI (1) Adobe Firefly 3:
https://news.adobe.com/news/news-details/2024/Adobe-Introduces-Firefly-Image-3-Foundation-Model-to-Take-Creative-Exploration-and-Ideation-to-New-Heights/default.aspx
https://firefly.adobe.com/
최신 이미지 생성 AI (2) 구글 Imagen 2:
https://deepmind.google/technologies/imagen-2/
https://www.nytimes.com/interactive/2024/01/19/technology/artificial-intelligence-image-generators-faces-quiz.html
[MLE]
MLE와 쿨백-라이블러 발산:
MLE와 분포 모델링의 관계:
https://deepgenerativemodels.github.io/assets/slides/cs236_lecture4.pdf
[ [오토인코더와 VAE 강의 영상]]
[변분 오토 인코더의 이해]
https://en.m.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence#Multivariate_normal_distributions
https://arxiv.org/abs/1906.02691
[변분 오토 인코더 실습]
https://www.tensorflow.org/tutorials/generative/cvae?hl=ko
https://pyimagesearch.com/2023/10/02/a-deep-dive-into-variational-autoencoders-with-pytorch/
[벡터 양자화 변분 오토 인코더의 이해]
댓글 영역
획득법
① NFT 발행
작성한 게시물을 NFT로 발행하면 일주일 동안 사용할 수 있습니다. (최초 1회)
② NFT 구매
다른 이용자의 NFT를 구매하면 한 달 동안 사용할 수 있습니다. (구매 시마다 갱신)
사용법
디시콘에서지갑연결시 바로 사용 가능합니다.