Skip to content

dreamgonfly/ToMuchInfo

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 
 
 
 
 
 
 
 
 

Repository files navigation

ToMuchInfo (NAVER AI Hackathon)

Author : 이상헌, 조용래, 박성남


Abstract

Preprocessing - Tokenize - Feature Extraction - Embedding - Model - Ensemble(optional)

Preprocessing

Tokenize

  • DummyTokenizer : dummy tokenizer that splits a sentence by space
  • JamoTokenizer : split text into jamos
  • JamoMaskedTokenizer : split text into jamos and mask movie names and actor names
  • TwitterTokenizer : tokenize text using konlpy's Twitter module
  • SoyNLPTokenizer : tokenize text using SoyNLP's MaxScoresTokenizer

Feature Extraction (feature_extractors.py)

  • LengthFeatureExtractor : token의 길이
  • ImportantWordFeaturesExtractor : 부정적 단어, 욕설 단어, 반전 단어의 수
  • MovieActorFeaturesExtractor : 자주 언급된 배우/영화를 찾고 이를 one-hot encoding
  • AbnormalWordExtractor : 직접 데이터를 보며 유의미할 것 같은 단어들 one-hot encoding
  • SleepnessExtractor : 졸리다는 내용의 표현 수

Embedding (dictionaries.py)

  • RandomDictionary : 단순히 word를 index화 시켜서 return
  • FastTextDictionary : pretrained FastText embedding을 불러와 embedding
  • FastTextVectorizer : train set으로 FastText 학습시키고 embedding
  • Word2VecVectorizer : train set으로 Word2Vec 학습시키고 embedding
  • TfidfVectorizer : train set으로 sklearn을 사용해 tf-idf vectorize

Model

Ensemble

  • Average : 한 epoch당 여러개의 모델을 동시에 돌리면서, validation loss가 더이상 떨어지지 않으면 저장. 성능이 잘나오는 모델만 모아서 평균을 냄
  • XGBRegressor : 각각의 모델당 best epoch을 찾은 후, 한번에 다 돌리고 그 결과값들로 xgboost를 써서 예측

About

NAVER AI Hackathon

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published