본문 바로가기

Naver AI Boost Camp/캠퍼 기록

[U-NLP] 9일차 회고 : 매일 매일 뇌를 적시다보면 조금씩 채워질 거란 마음으로 공부하자.

반응형

 

 

 

안녕하세요!!

27년차 진로탐색꾼 조녁입니다!

 

오늘도 하루가 순식간에 지나갔네요 ... 

확실히 코딩을 해야 느는데 , 온갖 오류만나다가 하루 끝나기가 참 쉽네요 ㅠㅠ 

 

 

1. 오늘 새롭게 배운 내용


오전 : 서버가 터졌다. 그래서 P-stage 1라운드 코드들을 깃헙에 백업하며 정리했다. Covy 멘토님이 주셨던 템플릿에 대한 이해가 더 필요하다고 느꼈다.

 

오후 : 명훈님 특강(BERT 구조 , MT-DNN) -> 논문리뷰(KLUE , seq2seq) -> 과제리뷰 (필수과제4 , 선택과제 2,3) 

 

사실 인풋이 너무많은 하루여서 다 정리를 못했다. 그래도 조금씩 더 적셔지고 있다.

 

 

2. 공부하며 질문한 내용 & 답변


- 만났던 오류들  => vs code 랑 ssh 연결하면서 계속 오류났었는데 권한 문제였고 해결해서 게시글로 올렸다.

2021.09.20 - [AI Boost Camp 2기/보면 도움이 될걸?!] - [오류해결] VS code에서 ssh 연결해서 사용하다 만난 오류들

 

[오류해결] VS code에서 ssh 연결해서 사용하다 만난 오류들

안녕하세요~! 27년차 진로탐색꾼 조녁입니다!! 오늘은 서버와 로컬을 SSH 로 연결하는 과정에서 만났던 오류들을 정리해보려고 합니다. 확실히 오류에 대한 이해가 잘 안되니까 이런 저런 글들을

jonhyuk0922.tistory.com

 

- 트랜스포머 인코더 구조의 아웃풋이 어떻게 K , V으로 디코더에서 사용되는 지???

=> 코드를 보면 디코더에는 self-attention 외에도 cross-attention이라고 다른 어텐션에서 나온 hidden states을 받아주는 코드가 있다.

 

 

3. 나중에 보면 좋은 자료


transformers 모델에 기여하기 : https://lassl.github.io/history/contribution-to-transformers.html?fbclid=IwAR2B61QBGjfG3fKr5nOKGgclGUgs_PPB7JcUKFV4Tm_HXWzsYgSWJsbLK24 

 

transformers에 모델 기여하기

커뮤니티가 활발하고 리뷰가 활발한, 그리고 인기있는 저장소에 기여해보는 경험은 협업에대한 시야를 넓혀주고, 연차높은 개발자들과 커뮤니케이션 해볼 수 있는 좋은 기회입니다. 큰 규모의

lassl.github.io

 

 

 

4. 회고


그래도 잘 적시고 있다. 왜냐하면 오늘 Seq2Seq 논문리뷰 & 코드를 보면서 내가 처음 시작했을 때 보지 못했던 것들이 보이고 이해가 됐기 때문이다. 이렇게 뇌를 하루에 조금씩 적시다보면 언젠가 채워지지 않을까싶다!! ㅎㅎ

 

 생각해보면 부스트캠프 시작부터 뭔가 깔끔하게 다 해서 기분좋았던 날이 거의 없었던 것 같다. 매주 공통적으로 공부하면서 공부거리가 늘어나면서 속으로 "추석때하자"라고 추석의 나에게 추석선물로 남겨두었던 것 같다. 근데 이제 추석이다 ㅋㅋㅋㅋㅋ

 추석때 또 몸도 쉬어줘야하니까(생일도 있고) 한 2일정도만 U stage 지난 것들 복습하고 Bert 기반 모델들 코드 좀 뜯어봐야겠다. 담백하게 말했지만 복습하고 코드 뜯어보는게 2일에 가능할 지 모르겠다 ㅋㅋㅋㅋ  무튼! 이렇게 매일 적셔나가면 한달한달 채워져갈 것이다!! 화이팅!

 

 

오늘의 피드백

 

+) 모임에 임할 때 90%이상 집중해서 임했다!

-) 공부한 것 정리 못하고 잠 ... (추석의 나에게 미안하다 정말)

 

반응형