728x90
반응형
1. RNN
RNN은 hidden state를 통해서 전 데이터가 이후의 데이터에 영향을 주어 연속적인 input이나 연속적인 output을 가능하게 해준다.
아래는 RNN many to one의 기본적인 구조이다.
여기서 h_t = tanh(W_hh * h_(t-1) + W_xh * x_t)이 hidden layer의 기본적인 구조이다.
2. in Tensorflow
1
2
3
4
5
6
7
8
9
10
11
12
|
import tensorflow as tf
model = tf.keras.Sequential()
model.add(tf.keras.layers.Embedding(input_dim=input_dim, #Embedding layer
output_dim=output_dim,
trainable=False,
mask_zero=True,
input_length=max_sequence,
embeddings_initializer=tf.keras.initializers.Constant(one_hot)))
model.add(tf.keras.layers.SimpleRNN(units=hidden_size)) #Hidden layer
model.add(tf.keras.layers.Dense(units=num_classes)) #Fully connected layer
model.summary()
|
cs |
728x90
반응형
'Deep Learning' 카테고리의 다른 글
RHO-1: Not All Tokens are What You Need 논문 리뷰 (0) | 2024.05.03 |
---|---|
Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets 논문 리뷰 (0) | 2024.04.01 |
손으로 마우스 조종 with Mediapipe (0) | 2024.01.10 |
Convolution Neural Network in Tensorflow (0) | 2023.12.15 |
Gradient descent algorithm in Tensor flow 경사하강법 (0) | 2023.11.05 |