본문 바로가기

Naver AI Boost Camp/캠퍼 기록

[P-KLUE] 6일차 회고 : 지치고 곤하여도 3일만 더!!

반응형

 

 

 

안녕하세요~!

27년차 진로탐색꾼 조녁입니다!!

 

지난 주에 바쁜 시간 + 지친 시간으로 인해서 노션에서 블로그로 회고를 옮기지 못했었네요 ,,

그래도 성현 마스터님 강의도 유익하고 대회 2개(KLUE-RE , news summarization) 도 너무너무 배운게 많다.

일단 눈앞에 3일동안은 KLUE대회에 몰입하고 이후에 wrap-up도 두개다 적고 코드도 잘 정리해야지!! (근데 토요일에 개회식이다 ㅋㅋㅋ)

 

0. 오늘의 TO DO


  1. 모델 커스터마이징 해보기
  2. added_data로 학습해보기
  3. 최적의 파라미터 찾기
  4. 깃헙에 코드 올리기

 

 

1. 오늘 알게된 내용


  • data 의 질이 나쁘면 양이 많아도 오히려 학습 효율이 떨어진다.
    • entity 교차해서 데이터 늘렸지만 오히려 역효과로 no_relation이 많아짐
    • EDA는 육안으로 보기에도 안좋고 그나마 AEDA는 시도해볼만하다?..(하지만 효과가 있을까?)

 

  • valid set은 우리의 학습이 잘되는 지 확인하는 목적이다. 결국 학습시키는 데이터양은 줄어들게 되는 것이므로, 실험할때만 사용하고 제출하기 전에는 100% train set으로 해서 제출해야한다.

 

  • ray 써보려고 이요한 캠퍼님 게시물 참고했으나 사용 못함
    • wandb sweap 써봤을때 진짜 오래걸리던데 , 그냥 script 짜서 wandb로 보면서 하는게 grid 서치보다 낫지 않을까?

 

  • 깃헙에 올릴 때 특정 브런치로 clone 하는 법
git clone -b [branch name] --single-branch [clone 할 주소]

 

  • 깃헙 특정 브런치로 push/pull 하는법
#origin으로 remote repo 연결했다고 가정 

git push origin [branch name] 
git pull origin [branch name]

 

2. 회고 : 지쳤지만 좀만더 힘내자!


지난주 3일동안은 뉴스요약 task에 정말 몰입해서 데이터 전처리하는 부분이나 다양한 pre-trained 모델에 대해서도 알게되고 데이터에대한 이해도도 높일 수 있었다.

그러나 , 아무래도 외부대회와 병행하다보니 초반에 집중 못한 것 + 외부대회 예선 진출의 기쁨으로 인해 지난주 금요일부터 집중을 잘 못하고 있다 ㅠㅠ (다 핑계쥬~?...)

 

 그래도 아무것도 안하고있는 것은 아니니까 조급해하지말고 끝나는 날까지 내가 기여할 수 있는 부분을 찾아서 팀에 기여하면서 조금씩 더 성장해가자 ㅎㅎ 오늘도 수고많았다.

 

반응형