인공지능

    [인공지능] 딥러닝 강의, 구현, 체험 등 사이트 모음집

    머신러닝 모델 선택 마인드맵 (강추)Image source : 백날 자습해도 이해 안 가던 딥러닝, 머리 속에 인스톨 시켜드립니다 by 하용호 (재밌음)Deep Learning State of the Art (MIT, 2019) Learing Rate(학습률) 강도에 따른 변화 테스트 인공신경망 체험 사이트 L1 정규화 학습 테스트 AI 웹사이트 & 생활 속 AI 사례 모음(강추) AutoML Tables로 높은 수준의 비즈니스 문제 해결하기 An Interactive Introduction to Fourier Transforms 딥러닝으로 오디오 만나보기 (Fourier Transform & MFCC) 딥러닝에서 클래스 불균형을 다루는 방법 (Weight balancing & Focal loss / O..

    [인공지능] 딥러닝 Overfitting(오버피팅) 피하는 방법!

    Avoiding overfitting 1. Dropout (2012, Geoffrey Hinton) : Training을 진행할 때 매 Batch 마다 Layer 단위로 일정 비율 만큼의 Neuron을 꺼뜨리는 방식이다 왼쪽이 Dropout을 사용하지 않은 이미지이고, 오른쪽이 Dropout을 60%(0.6)을 적용한 이미지이다. 꺼지는 위치는 랜덤이다 랜덤하게 Neuron을 꺼뜨려 학습을 방해함으로써 모델의 학습이 Training data에 편향되는 것(over fitting)을 막아주는 것이 핵심이다. 즉, 동일한 데이터를 매번 다른 모델을 학습시키는 효과를 발생시켜 일종의 Model ensemble 효과를 얻는 것이다 가중치 값이 큰 특정 Neuron의 영향력이 커져 다른 Neuron들의 학습 속도..

    [인공지능] Detectron2 - Github

    https://github.com/facebookresearch/detectron2 GitHub - facebookresearch/detectron2: Detectron2 is a platform for object detection, segmentation and other visual recognition t Detectron2 is a platform for object detection, segmentation and other visual recognition tasks. - GitHub - facebookresearch/detectron2: Detectron2 is a platform for object detection, segmentation a... github.com Detectron2..

    [인공지능] train_test_split 하는 이유는 무엇일까?

    위 그림처럼 강아지 집을 만들기 위해 강아지 몸 사이즈에 딱 맞게 집을 만들어주면 , 다른 강아지한테도 과연 딱 맞을까? 당연히 안맞을 것이다. 우리는 이걸 '과적합(Overfitting)'이 되었다고 한다. 우리가 모델을 학습시키고 좋은 결과만 나오기를 원한다. 그렇다면 어떻게 해야 좋은 결과(예측)가 나올까? 과적합을 피하고, 좋은 결과를 내기 위해서 Cross validation(교차 검증)을 시행한다. 이 과정에서 우리가 알고 있는 train_test_split을 하여 학습 데이터와 평가 데이터를 나누고 학습과 평가를 한다. 1. Cross validation 3분할 1. 60% train data로 모델 학습(Learn)시킨다 2. 20% Validation data로 모델(or 하이퍼파라미터)..