Computer/Machine learning models
Updated: 2024. 2. 20. 11:46
hwaya.
RNN에서 사용되는 'input_shape' 알아보자
반응형
input_shape
에서의 시퀀스 길이와 특성 수는 순환 신경망(RNN) 또는 그 변형인 LSTM, GRU 레이어에 입력되는 데이터의 구조를 나타냅니다. 이들은 시계열 데이터나 텍스트 데이터와 같이 순차적인 데이터를 처리할 때 사용됩니다.
- 시퀀스 길이 (Sequence Length): 이는 입력 데이터의 시간 단계 또는 순차적인 단계의 수를 나타냅니다. 즉, 하나의 시퀀스 내에 있는 연속적인 데이터 포인트의 개수입니다. 예를 들어, 시계열 데이터에서 시퀀스 길이는 고려하고자 하는 시간 프레임의 길이가 될 수 있습니다. 만약 하루 동안 시간별 데이터를 고려한다면, 시퀀스 길이는 24가 될 수 있습니다.
- 특성 수 (Number of Features): 이는 각 시간 단계에서의 관찰된 특성(변수)의 수를 나타냅니다. 예를 들어, 대기질 데이터에서 SO2, CO, O3와 같은 여러 특성을 관찰한다면, 이 특성들의 개수가 입력 데이터의 특성 수가 됩니다.
예시
입력 데이터가 하루 동안의 시간별 대기질 데이터를 포함하고 있고, 각 시간마다 SO2, CO, O3 등 5개의 다른 환경 지표를 측정한다고 가정해 봅시다. 이 경우 시퀀스 길이는 24(하루 동안의 시간 수), 특성 수는 5(관찰된 환경 지표 수)가 됩니다. 따라서 input_shape
는 (24, 5)
가 됩니다.
이 정보는 모델이 입력 데이터를 어떻게 해석해야 하는지를 결정하는 데 중요하며, 모델의 첫 번째 순환 레이어에 input_shape
매개변수를 통해 전달됩니다. 예를 들어, LSTM 레이어를 사용하는 경우 모델 정의는 다음과 같을 수 있습니다:
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import LSTM
model = Sequential()
model.add(LSTM(units=50, input_shape=(24, 5))) # 24: 시퀀스 길이, 5: 특성 수
이렇게 input_shape
를 설정함으로써, 모델은 각 입력 시퀀스가 24개의 연속적인 시간 단계로 구성되고, 각 시간 단계마다 5개의 특성이 있음을 이해하게 됩니다.
반응형
'Computer > Machine learning models' 카테고리의 다른 글
데이터 어노테이션(Data Annotation) (0) | 2024.07.10 |
---|---|
LSTM(Long Short-Term Memory)과 GRU(Gated Recurrent Unit)의 특징 비교 (0) | 2024.02.20 |
recurrent_activation (0) | 2024.02.14 |
Epochs 와 Batch Size (0) | 2024.02.13 |
데이터 분할 : train_test_split (1) | 2024.02.13 |