목록2024/06 (15)
버티의 블로그
위와 같이 영어 문장을 프랑스어 문장으로 번역할 시, 내부 구조를 RNN을 사용해서 문장의 한 단어씩 input으로 넣어 사용할 수 있을 것이다. 그러나 번역을 할거면 전체 문장의 맥락을 파악하여 한번에 번역해야 하므로 이 방법은 문제가 있다. 따라서 문장 전체를 encoding하여 특징을 파악하고 번역된 문장을 생성해야 하고 이에 제시된 방법이 sequence to sequence, seq2seq이다. seq2seq은 Encoder RNN(LSTM) 구조와 Decoder RNN(LSTM) 구조 2가지를 병렬로 사용하는 방식이다. 각각의 원리를 살펴보면 다음과 같다. 1) Encoder입력 문장을 단어 단위로 잘라서 encoder의 input으로 넣는다.encoder의 output은 사용하지 않고, 마지..
RNNRecurrent Neural Network로, 시계열 데이터를 처리하기에 좋은 뉴럴 네트워크 구조이다. 시간 별로 같은 weight를 공유한다는 특징이 있어 과거와 현재는 같은 weight를 사용한다.First-Order System은 현재 시간의 상태가 이전 시간의 상태와 관련있다고 가정하는 것으로 첫번째 식이고 상태를 x_t라고 한다. 이 시스템은 외부 입력 없이 시간에 따라 혼자 작동하므로, autonomous system이라고도 한다. 이때 현재의 입력에도 관계가 있는 경우가 2번째 식이고 입력은 u_t이다.그러나 First-Order System에서 모든 시간 t에서 x_t가 관측 가능하진 않다. 보이지 않는 변수나 입력이 있을 수 있기 때문에 일부만 관측 가능하다. 이렇게 관측 가능한 ..
Word2Vec기존 정수 인코딩과 one-hot 인코딩의 단점들은 다음과 같았다.단어 사이 연관성 파악의 어려움과도한 메모리 사용 문제희소 표현 (Sparse Representation) : 1이 0에 비해 너무 적어 확률이 낮아질 수 있다.Word2vec은 이러한 단점들을 개선한 방법이다.단어 사이 유사도를 Neural Network를 사용하여 Dense Representation으로 표현벡터 차원을 원하는 대로 설정 가능데이터를 이용해서 표현을 학습함.CBOW와 Skip-Gram이 존재1) CBOW (Continuous Bag of Words) : 주변 단어를 활용해 중간 단어를 예측주변 단어를 one-hot 인코딩하여 Input Layer로 입력, 이 값들을 산술평균 후 weight matrix를 ..
화분에 예쁜 꽃이 피었다.이 문장을 토큰화하면 다음과 같이 해야한다. 아래 처럼 명사/조사 사이나 어간/어미 사이도 분리해야한다.화분(명사) + 에(조사) + 예쁘(어간) + -ㄴ(어미) + 꽃(명사) + 이(조사) + 피(어간) + 었(어미) + 다(어미) 이런식으로 컴퓨터가 자연어를 효과적으로 처리할 수 있도록 전처리 과정을 거쳐야 한다. Pre-Processing텍스트 전처리 과정은 크게 3가지 단계가 있다. 1) Tokenization문장을 형태소 단위로 자른다. 주어진 문장에서 의미 부여가 가능한 단위를 찾는다.표준화 토큰화 방법인 Treebank Tokenization이 있다.문장 의미별로 나누는 문장 토큰화도 존재한다.한국어는 토큰화가 어렵다. Ex) 필요하다면 -> 필요(명사) + 하(접미..
지금까지 본 강화학습은 모두 value-based로, value function값을 예측하고, greedy하게 policy를 선택했었다. 이러면 특정 state에 대한 optimal action이 하나로 결정되는 deterministic model을 생성하는데, 이는 가위바위보와 같이 랜덤하게 다양한 선택을 하는 것이 중요한 stochastic한 상황에서는 한계가 있다. 따라서 이젠 policy-based로 시도해보고자 한다. 8장에서 본 value function approximation과 비슷하게, policy-based에서는 policy 자체를 approximation한다. 7장에서는 w라는 파라메터를 사용하는 approximator였다면, 여기서는 θ를 사용한다.이 방식의 장단점은 다음과 같다.빠..
Hybrid-ARQARQ는 통신 과정에서의 오류 검출 및 재전송 메커니즘을 뜻하는데, 수신측에서 에러를 감지하면 송신측으로 NACK를 보고 이때 송신측에서 다시 재전송을 하는 과정이다. 그러나 기존 ARQ는 한 비트만 에러가 발생해도 ARQ를 하기에 latency가 커지고 많은 양의 패킷을 재전송했어야 하므로 전송 효율이 떨어지면서 overhead가 증가했다. 그래서 오류 정정 기능과 ARQ를 합친 HARQ가 탄생했다. 이때 수신자가 이전에 수신한 데이터를 버리지 않고 재사용해서 새로 받은 데이터와 결합하여 decoding하는 방법을 HARQ with Soft Combining이라 하고, 2가지가 존재한다. CC(Chase Combining)송신자가 NACK를 받으면 처음 전송한 데이터 형태 그대로 재전..