1. 수업내용
주제 :
1:1 문의 유형 분류기 만들기
배경지식 :
aivle school의 1:1 질문 제시판의 많은 질문들이 올라오고 있다.
이러한 질문들은 5개의 유형으로 나누어서 받고 있는데 다음과 같다
(1. 이론 질문, 2. 웹 오류, 3. 운영 관련 문의 4. 코드 오류 해결 5. 원격지원 요청)
각 유형에 대해 질문을 받고 있지만 제대로 분류가 되지 않아 담당자에게 빠르게 전달하지 못하는 경우가 발생하고 있다
그래서 문의 내용에 대해 어떠한 질문유형인지 분류해주는 분류기를 생성하여 문제를 해결하자!
과정 :
1 일차 - 문의내용과 질문유형이 있는 데이터에 대해 단변량 분석과 형태소 분석
2 일차 - 데이터 전처리(n-gram, seqeunce) 및 train, valid split
3 일차 - Machine Learning 모델을 사용하여 전처리한 데이터 학습 및 분석
4 일차 - sequence 데이터로 DL 모델을 학습 및 분석, pretraining model 사용하여 fine tuning
5 일차 - Kaggle 대회
Kaggle :
조별 대회
- hugging face의 pretraining model을 사용 (kobert, KoELECTRA 모델)
- 최대 점수: kobert는 0.8619 , KoELECTRA는 0.8665
2. 강의 후기
지병규 강사님께서 5일동안 맡아서 해주셨다.
그 이전 언어지능 강사님께서 5일 동안 전처리에 대해 구체적인 설명을 하지 않고 RELU, LSTM에 대해서만 5일간 설명을 해주셔서 전처리하는 과정이 정말 힘들었다. 다행히 지병규 강사님께서 전처리에 대해 하루마다 설명을 해주셔서 조금씩 이해할 수 있었다.
kaggle 대회에서는 열심히 모델을 돌려보았지만 결과적으로 모델이 중요한 것보다 전처리가 더 중요한 것 같았다. 우리 조는 15등 안에는 들지 못해서 만점은 받지 못하였다 ㅠㅠ
kaggle이 끝나고 다른 조 들이 발표를 하였는데 대부분 KoELECTRA를 사용하셨다. 15등 안에 들어간 조들의 발표를 보니데이터 전처리 과정에서 최대한 원본 데이터를 해치지 않고 돌려야만 나온다는 것을 알게 되었다.
즉, "튜닝의 끝은 순정이다" 라는 말씀을 하셨다.
이번 언어지능을 하면서 모델을 여러 방향으로 수정하면서 돌릴 때
1. learning rate, 2. 모델 embedding dimension 크기(512,256,128...) 순으로 조절을 하면서 돌려보아야 조금 더 빨리 좋은 모델을 찾을 수 있다는 것을 배울 수 있었다.
'kt aivle' 카테고리의 다른 글
kt aivle 3기 [12주차] - 미니프로젝트 6차 & Aivle day1 (0) | 2023.04.23 |
---|---|
kt aivle 3기 [11주차] - AICE 시험 대비 + 미니프로젝트 5차 (0) | 2023.04.18 |
kt aivle 3기 [8주차] - 미니프로젝트 3차 (0) | 2023.03.24 |
kt aivle 3기 [7주차] - 시각지능 딥러닝 (0) | 2023.03.15 |
kt aivle 3기 [6주차] - 미니프로젝트 2차& AI 모델 해석,평가 (0) | 2023.03.14 |