반응형 부스트캠프 AI-Tech/회고록8 [부스트캠프 AI-Tech] 4주차 회고록 1. 학습기록 [EDA] [Data Processing] https://amber-chaeeunk.tistory.com/87 [Modeling] https://amber-chaeeunk.tistory.com/88 [Training] 3. 일정 2. 이미지 분류 대회 ■ 대회 요약 ■ 클래스 분류 ■ 새로 알게된 내용 - os.listdir / os.walk / os.glob를 사용하여 하위 파일 경로를 리스트에 저장할 수 있다. - 이미지 분야는 Dataset클래스에서 __init__ 이 아닌 __getitem__ 에서 이미지를 받아온다. 3. 피어세션 팀 이미지 분류 모델 튜닝 역할 분담 현재 만들어 놓은 augmentation이 적용한 data와 efficientnet모델을 main으로 삼아, 우선 .. 2021. 8. 27. [부스트캠프 AI-Tech] 3주차 회고록 1. 학습기록 [Tensor 기본 사용법] https://amber-chaeeunk.tistory.com/84 [Dataset과 DataLoader] https://amber-chaeeunk.tistory.com/85 [Multi-GPU] https://amber-chaeeunk.tistory.com/82 [Hyperparameter Tuning과 Troubleshooting] https://amber-chaeeunk.tistory.com/83 2. 일정 3. 피어세션 ■ 강의 내용 발표 · Pytorch 기본 (Tensor사용법, 프로젝트 구조) · Pytorch 구조 (mm.Module, AutoGrad, Optimizer, Dataset, DataLoader) · Pytorch 구조 (Loss와 M.. 2021. 8. 20. [부스트캠프 AI-Tech] 2주차 회고록 학습기록 [Optimizer] https://amber-chaeeunk.tistory.com/74 [Optimizaton] https://amber-chaeeunk.tistory.com/80 [CNN] [RNN, LSTM, GRU] [Transformer] [Generative Model] 일정 주로 고민했던 것 이번주에는 1) Optimizer에서 gradient vector에 learning rate을 곱해주는 이유와 2) Adaptive learning을 도입한 Adagrad와 3) k-fold cross validation에 대해서 많이 고민하였다. ■ 첫번째로 learning rate에 대해 고민한 이유는 'gradient vector자체가 loss값에 얼마나 영향을 미치는 지에 대한 정보이니 .. 2021. 8. 13. [부스트캠프 AI-Tech] 1주차 회고록 학습 기록 [벡터] https://amber-chaeeunk.tistory.com/69 [행렬] https://amber-chaeeunk.tistory.com/70 [경사하강법] https://amber-chaeeunk.tistory.com/71 [확률론] [통계학] https://amber-chaeeunk.tistory.com/m/77 [베이즈 통계학] https://amber-chaeeunk.tistory.com/78 회고 사실 본교육이 시작되기 전에 공모전과 스터디에 허덕이느라 precourse를 몇 개만 봤었다. 경고했던 대로 그것이 나비가 되어... 첫째 주 강의 분량이 너무 버거웠다. 하루에 소화해내야 하는 양이 너무나 많았다........... 일찍이 여기에 집중을 했어야 했는데 이것저것 하.. 2021. 8. 6. 이전 1 2 다음 728x90 반응형