딥러닝 - 리뷰 평점 예측 프로젝트
포스트
취소

딥러닝 - 리뷰 평점 예측 프로젝트

데이콘 쇼핑몰 리뷰 평점 예측 대회에 참가하며 분석한 결과와 회고를 기록합니다.

 쇼핑몰 분석 프로젝트

서브 프로젝트

1. 쇼핑몰 리뷰 평점 분류 경진대회

쇼핑몰 리뷰 평점 분포 (3점은 분류가 안되기 때문에 문제 자체에서 제공 안함)


 

리뷰 평점1과 평점5의 Token IDF 분포 (TfidfVectorizer 로부터 추출)


노이즈 제거와 특징이 되는 단어들을 선별하는 것부터가 전처리의 시작 

2. 쇼핑몰 지점별 매출액 예측 경진대회

내가 속한 프로젝트가 아니라서 링크만 저장
 


프로젝트 범위 (기간, 작업)

전체 기간: 7/18 ~ 7/29 (2주간)

계획 (100점)

시나리오

  • 리뷰 텍스트를 전처리, 벡터화(임베딩)를 빠르게 끝내고
  • (2일 소모) 가능한 모든 예측 모델들을 모두 돌려 본 뒤
  • (3일 소모) 최적의 모델을 선정하여 개선시킨 모델을 만들자
    • 앙상블 시키던지
    • 문제점을 개선하거나 아이디어를 적용

 

중요 체크포인트

  • 7/18~19 프로젝트 선정을 위한 조사 (데이터, 베이스라인)
  • 7/20 프로젝트 기획서 작성 및 제출
  • 7/21~22 참고 모델 모두 돌려본 후 공유
  • 7/25~27 나만의 모델 돌려본 후 공유 => 최적 모델 선정, 앙상블
  • 7/28 문서화
  • 7/29 발표

 

실행 (80점)

1주차 회고

  • 7/18 프로젝트 선정을 위한 조사… **OK**
    • 이상과 현실을 오가며, 이랬다 저랬다 갈등
    • 공공데이터 포털, 제주 데이터허브/빅데이터 등에는 통계 자료만 있고
    • AI 데이터허브는 신청 수락까지 시간이 걸려 제외
       
  • 7/19 Google Maps API로 제주 관광지 리뷰 수집 테스트… **Not bad**
    • 시간도 충분하니 모든 모델을 돌려보고, 후반에 실데이터도 돌려보겠다는 욕심을 냄
    • 다른 동료들의 과제 결정을 기다리며, 웹서핑으로 시간을 보냄
       
  • 7/20 프로젝트 선정: DACON 쇼핑몰 분석 챌린지… **OK**
  • 7/21 Okt 전처리에 하루 다 보냄. 이후 LightBGM 한번 돌려봄… **Not bad**
    • Okt.pos 의 태그타입을 추가하거나, n-gram 생성, 통계적 triming 시도
    • 결국 베이스라인 작업대로 가는게 낫다고 결론 내림
       
  • 7/22 한국어 임베딩 모델을 찾고 돌리는데 하루 다 보냄… **BAD**
    • 어제 못다한 LightBGM 모델에 RandomizedSearchCV 최적화 적용
    • 한국어 Word2Vec 사전훈련 모델들이 작동하는지 체크하고 LR 모델에 적용해 봄
    • LR 모델 기준으로 TFIDF 기법의 baseline 보다 잘 나오지 않아 초초해졌음
       
  • 7/23~24 주말 추가 작업
    • 이번 주까지는 더 섬세하게 전처리 작업을 해야겠다는 생각으로 시각화하며 살펴봄 (EDA)
      • Okt 이전에 특수문자, 웹주소, 이메일, 전화번호 등도 지우고, 자모음이나 한글자도 지우고
      • TFIDF n-gram 조합을 적용해 n-gram(1,2) 이 최적임을 찾아냄
    • DACON에 v1_LR_Okt 제출 ==> 채점결과 0.6477 (27위)
      • Okt 전처리, TFIDF 벡터화만 하고 LR 회귀모델 그대로 사용
    • mecab 를 써보면 어떨까 해서 같은 작업을 반복함
      • LogisticRegression 모델을 기준으로 비교해 봤으나 Okt 가 낫다고 판단

 

2주차 회고

  • 7/25 전처리와 Word2Vec 사전추가를 적용하고, 코드 정리, LSTM 일부 작성… **Not bad**
    • DACON에 v2_LR_Okt 제출 ==> 채점결과 0.6504 (갱신)
    • DACON에 v3_LR_Okt_stem 제출 ==> 채점결과 0.6457 (유지)
    • 코랩 노트가 지저분해지면서 작업 능률이 떨어져 정리 작업함
    • LSTM 모델 결과가 LR 보다 현저하게 낮아 불안감이 생김 (내가 뭘 잘못했나?)
       
  • 7/26 LSTM, BiLSTM, 1D CNN 돌려보고 처참한 정확도에 짜증이 남… **BAD**
    • LSTM 최적화를 하면 달라질까 싶어 keras_tuner를 돌려봤으나 BestModel 에서 val_acc=0.5773 나옴
    • DACON에 v4_LSTM_Okt_wv 제출 ==> 채점결과 0.5659 (유지)
    • LSTM, BiLSTM, 1D CNN 모두 정확도 0.5 중반을 넘어가지 못함 (학습 안됨)
       
  • 7/27 다른 말뭉치를 찾아 Transformer 모델로 KcELECTRA 적용… **OK**
    • 낯설은 Torch+Transformers 조합이였지만, 어떻게든 LR을 넘는 모델을 찾고 싶어 시도
    • DACON에 v6.1_KcELECTRA 제출 (전처리 없이) ==> 채점결과 0.6366 (유지)
    • DACON에 v6.2_KcELECTRA_clean 제출 (불용어 제거) == nt color='red'>채점결과 0.6591 (갱신)</font>
       
  • 7/28 문서 작업을 해야 하지만 KcELECTRA 모델을 추가 시도함… **Not bad**
    • 띄어쓰기(py-hanspell) 전처리를 추가해 보기로 했다.
    • 학습 epochs=5 가 너무 적었던 점을 감안해, epochs=15/10/5 를 추가로 시도
    • DACON에 v6.3, v6.4, v6.5를 제출했지만 채점결과 0.634, 0.6309, 0.6397 (유지)
    • 이해도 없이 KcELECTRA 모델을 따라했지만, v6.2의 결과도 재현하지 못했다 😭
       
  • 7/29 발표 준비와 함께 이번 AIM 과정에서 얻은 것들을 되돌아 본다… **OK**

 

총평 회고

데이콘 경진대회에서는 제출 자료에 대한 정확도 평가와 순위를 제공한다. 이번 프로젝트의 성과는 KcELECTRA 모델을 사용해 얻은 정확도 0.6591 (31위)로 축약된다. 목표보다 부족한 성과이지만 전체 과정을 경험했고, 실데이터를 상대로 성과를 얻었다는 것, 궁하면 뭐든(?) 가져다 쓸 수 있다는 경험도 얻었다. 정리하자면 이제는 진입장벽을 느끼지 않고 혼자서도 공부를 이어갈만 하겠다는 마음가짐이 큰 성과라 생각한다.

  • 1차 목표: 제시된 베이스라인2(정확도 0.641)보다 더 높은 정확도를 얻는 것… 성공!!
    • 베이스라인2: Okt + TFIDF + LogisticRegression
    • 제출 v2: 전처리 + Okt + TFIDF + LogisticRegression
    • 제출 v6.2: 전처리 + KcELECTRA 임베딩 + KcELECTRA 모델
  • 2차 목표: 모든 모델을 다루어 보자는 것… (실패)
    • LSTM/BiLSTM, 1D CNN, Transformer… '절반 성공'
  • 3차 목표: 최고의 모델 또는 나만의 모델은 오리무중… (실패)
    • 최소 LogisticRegression 보다 나은 모델을 찾는 것으로 급선회… '절반 성공'

문제를 해결하기 위해 찾아낸 팁과 코드들은 잘 정리해 둘 계획이다. 또 다른 문제를 받으면 더 빨리, 더 잘 풀수 있도록 말이다. 미래는 알 수 없지만, 나는 딥러닝에 한걸음을 디뎠다. (다른 동료분들도 좋은 경험이 되었기를 바랍니다)

 

산출물

발표자료

  • 쇼핑몰 리뷰 평점 예측 : PDF
  • 쇼핑몰 매출액 예측 : PDF

 

DACON 경진대회 성적

최종 순위 (2022-07-28 오후 11시)

최종순위
 

순위 변화

순위변화
 

제출자료 평가 (제출 13회)

제출일버전정확도사용한 기법
2022-07-20baseline_v10.6160공백분리 + Count(TF) + LR 모델
2022-07-20baseline_v20.6410Okt + TFIDF + LR 모델
2022-07-23submission_v10.6478전처리 + Okt + TFIDF + LR 모델
2022-07-24 (27위)submission_v20.6504v1 기법 + 노이즈 제거 추가
2022-07-25 (29위)submission_v30.6457v2 기법 + Okt 스테밍 추가
2022-07-25v40.5659전처리 + Okt + W2V + RNN 모델(LSTM)
2022-07-26 (32위)v50.6276KoBERT 임베딩 + KoBERT 분류
2022-07-27 (34위)v6.10.6366KcELECTRA 임베딩 + KcELECTRA 분류
2022-07-28 (29위)submission_v6.20.6591전처리 + KcELECTRA 임베딩 + KcELECTRA 분류
2022-07-29submission_v5.20.6634hanspell 전처리 + KcELECTRA 임베딩 & 분류
2022-07-29 (29위)submission_v6.60.6685hanspell 전처리 + KcELECTRA 임베딩 & 분류
2022-08-02 (37위)submission_v7.10.6489hanspell 전처리 + TF translate
  • 1위는 정확도 0.7124 (제출 40회)
  • 2 ~ 6위는 정확도 0.70xx (제출 20 ~ 30회)

submission_v5.2 의 학습 곡선

학습의 효과가 그리 크지 않다.
어떤 모델도 대동소이하고, 그나마 나은 모양이 이정도이다.


 


 

submission_v6.6 의 metrics 테이블

  • epochs=5, max_len=64, hanspell 전처리 데이터 ==> 제출 acc 0.6685
StepTraining LossValidation LossAccF1PrecisionRecall
2000.8748000.7555060.6756700.6357660.6080090.675670
4000.7146000.7410900.6968790.6594950.6511460.696879
6000.6747000.7300550.6986790.6509470.6609540.698679
8000.5872000.7853250.6848740.6700200.6614410.684874
10000.5619000.8242200.6798720.6679840.6613310.679872
12000.4843000.8451290.6816730.6692660.6621640.681673
14000.4185000.9159610.6694680.6621320.6564070.669468

그 외에 만든 코드들

 

피드백

  • 프로젝트의 목적이 정확도를 올리기 위해서 보다 어떤 문제를 풀기 위해서 라고 접근하는게 좋음
    • 문제: 사용자가 작성한 리뷰의 표현과 평점이 일치하지 않는 문제 있다.
      리뷰만으로 추정하는 평점을 활용하고 싶다는 목적을 구현하고자 한다.
  • 정확도보다는 베이스라인 모델과 비교해야 이해가 빠르다
    • 개선점 비교 가능
  • 가장 정확도가 높았다는 hanspell 의 효과는 어느 정도인지 측정 가능한가?
  • 많은 도구를 다루어 봤지만, (최적화 할 수 있는) 잘 쓸 수 있는 도구는 어떤 것인가?
  • label 별 정확도도 살펴봤으면 좋겠다
    • 전체 데이터에 대한 정확도만 비교해서 단순하게 결론낸게 아닌가
    • 안좋은 label 그룹이 있다면, 개선하는 방향으로 해보면 어떨지?

또다른 아이디어

  • 우선 크게 두 그룹으로 나누고, 각 그룹 내에서 다시 분류를 하는 전략은 어땠을지
    • 평점 1,2 그룹(dislike)과 평점 4,5 그룹(like)에 대해 이진 분류
  • 각 그룹별로 특징적인 키워드를 먼저 선별하여 feature 로 적용했으면 좋을듯
    • IDF 시각화 참조

DACON 경진대회 입상자 코드

1위 코드와 비교해 보면, 띄어쓰기 전처리와 electra 모델을 사용한 점이 같다.
그 외에 중요한 훈련 전략의 설계와 모델의 앙상블 등에서 큰 차이가 발생했다.
실제 문제들은 하나 이상의 규칙성을 포함하기 때문에 best-practice 로 매우 유용하겠다.

Private 1위 (0.71312) | funnel + electra | Soft-Voting

  • 라이브러리
    • py-torch, transformer( funnel + electra )
       
  • 전처리
  • 토크나이징 + 데이터셋
    • 실제값 전처리: df['target'].map({1:0, 2:1, 4:2, 5:3})
    • CustomDataset(Dataset)
       
  • 학습
    • 파라미터
      • NUM_CLASSES = 4 (클래스는 4개뿐, 평점3은 제외)
      • MAX_LEN = 50
      • BATCH_SIZE = 128
      • EPOCHS = 10
      • LEARNING_RATE = 2e-5
      • LABEL_SMOOTHING = 0.05
      • SEED = 2022 (랜덤 시드는 22 사용)
    • 사전훈련 모델 ==> 2가지 예측모델을 만들어 앙상블
    • 콜백
      • EarlyStopping
        • 여러 요소를 따져서 조기종료를 정의하려면 Custom 클래스를 만들어야 한다
        • self.best_score 갱신시 save_checkpoint 실행
    • 전략
      • optimizer: AdamW
      • 교차검증: StratifiedKFold(N_FOLD=5)
      • 손실함수: nn.CrossEntropyLoss(label_smoothing=LABEL_SMOOTHING)
        • 라벨 스무딩을 이용하여 모델의 일반화 성능을 향상시킴 (평점이 리뷰와 안맞는 케이스 완화)
        • 참고: Label smoothing 이란?
           
  • 평가

    • 모델 2개 생성
      • eletra_model = eletra 토크나이저 + skFold + CrossEntropyLoss(label_smoothing)
      • funnel_model = funnel 토크나이저 + skFold + CrossEntropyLoss(label_smoothing)
    • 모델 앙상블
      • 예측값 = eletra 예측값 + funnel 예측값
      • 두 모델의 예측값 중 최대값 선택: torch.max(torch.tensor(preds), dim=1)
         
  • 예측(테스트) 결과 생성
    • 예측값 후처리: submission['target'].map({0:1, 1:2, 2:4, 3:5})
       

참고

1
2
3
4
5
- text in red
+ text in green
! text in orange
# text in gray
@@ text in purple (and bold)@@

 
 

끝!   읽어주셔서 감사합니다.

이 기사는 저작권자의 CC BY 4.0 라이센스를 따릅니다.