2024년 8월 29일 목 오후 4시
인원: 박동채 외 19명
장소: 의양관 B07
불참인원: 수환, 태우, 재헌, 시경, 민중, 수현, 정민, 소희, 준엽
<공지사항>
0. 청소 - 완
1. 고정 회의 날짜 fix
- 수요일 18시 (확정)
- 금요일 12시
- 월,화,목 20시
2. 다음주 회의 불참 (진짜 급한일 아니면 빠지지마세요. 회의가 선약입니다.)
ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ
주희
ㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡㅡ
3. 릴레이발표
9/4: 도영, 지선
9/11: 민중, 시경
9/18: 재헌, 정훈
9/25: 철민
11: 철민
4. 단톡방/노션 초대 (초대완료)
- 학부생(교수님 있는 방) - 31명
- 전체 단톡방(회의록 올리는 방) - 54명
- 전체 단톡방(결초보은 전체 있는 방) - 67명/ ex) 안녕하세요 {학과} {이름} 입니다!
- 이메일 받고 명부 최신화
5. NIA 참가 신청
- 몇명 했는지, 참가 신청만 해주세요
- 주희,동채,철민(1팀)
6. 독서토론클럽 (경영정보는 경영정보끼리만 가능합니다.)
- 학과별 1개 팀
- 팀당 지도교수 1명, 재학생 6~10명
- 총 책 2권이상과 6회 토론
- 진행 보고서 및 독후감 작성
- 팀 활동비 지급(30만원)
- 수료증, compass k 점수(10점), 시상금
- 학과 사무실(2024.09.11 17:00)
- 문의: 도서관 연속간행물실(580-5698)
7. 회식 날짜 fix (신환회)
- 수요일 회의 끝나고 회식 예정
- 공금 (인당 10,000원씩) = max(250,000)
- 1차는 신입들 안내고 2차 부터 N 빵
<발표>
진하: 생체신호 데이터 분석
바이오 신호 = 생체계에서 신호를 추출한 기법
생체신호 특성 : 기계적, 물리적, 전기적, 광학적, 화학적 생체신호로 이루어짐
기계적,물리적 생체신호 : 대부분의 생체 신호들은 이 카테고리에 포함됨
전기적 생체신호 : 전기적인 변수로 측정되는 신호
광학적 화학적 생체신호 : 가시광선 또는 적외선 범위의 파장으로 신체 내부 특성 성분 비율 또는 분포를 측정하는 생체신호
관련 논문:
스푸핑 공격: 자신의 신원을 위조해 다른 개체로 가장해 공격하는 것을 뜻한다.
이를 해결하기 위해 원격 광용적맥파 기반 공격탐지 방법을 제안하는 논문임.
도영 - 논문리뷰(attention is all you need)
트랜스포머 모델이 나오게 된 이유랑 모델 아키텍쳐 소개
이 논문은 RNN, LSTM, GRU와 같은 기존 순환 신경망 구조의 한계를 극복하기 위해 오직 Attention 메커니즘만을 사용하여 더 효율적이고 강력한 모델을 설계하게 되었음.
트랜스포머는 Self-Attention과 Multi-Head Attention을 핵심 요소로 사용하여 입력 시퀀스 내 중요한 정보에 집중할 수 있도록 설계되었음.
Self-Attention은 각 단어가 문장 내 다른 단어들과의 관계를 학습할 수 있게 해주며 Multi-Head Attention은 이 과정을 여러 번 병렬로 수행하여 다양한 관점에서 입력 데이터를 분석할 수 있게 됨.
기존 RNN 기반 모델들은 시퀀스 데이터를 순차적으로 처리하기 때문에 병렬 처리가 어렵고 긴 시퀀스를 처리할 때 정보가 손실되거나 왜곡되는 문제가 있었음.
트랜스포머는 이러한 문제를 해결하기 위해 인코더-디코더 구조를 도입하였으며 모든 계산을 병렬로 수행할 수 있어 학습 속도가 크게 향상됨.
또한, Positional Encoding을 통해 단어들의 순서 정보를 추가하여 순차적 구조가 없는 상황에서도 문맥을 이해할 수 있도록 설계되었음.
논문에서 제안한 모델의 인코더와 디코더는 각각 6개의 레이어로 구성되어 있으며 각 레이어는 Multi-Head Attention과 Feed-Forward Network(FFN)으로 이루어져 있음.
인코더는 입력 시퀀스를 처리하고 디코더는 이를 기반으로 출력 시퀀스를 생성하게 됨. 이 과정에서 디코더는 Masked Multi-Head Attention을 사용하여 이전에 생성된 단어들만 참고하여 다음 단어를 예측하게 됨.
트랜스포머 모델은 이러한 구조적 혁신을 통해 자연어 처리 작업에서 뛰어난 성능을 보여주었으며 특히 병렬화가 용이하고 학습 시간이 기존 모델들에 비해 훨씬 짧아짐.
또한, 다양한 자연어 처리 작업에 잘 일반화되며 번역, 요약, 문서 분류 등에서 우수한 결과를 보였음.
이 논문은 이후 많은 연구와 응용에 영향을 미쳤으며 BERT, GPT 등 최신 모델들의 기반이 되었음.