Computer/Machine learning models

데이터 어노테이션(Data Annotation)

학습을 위해 이미지에 라벨링하는 과정을 "데이터 어노테이션"이라고 합니다. 데이터 어노테이션은 머신 러닝 모델, 특히 딥 러닝 모델을 학습시키기 위해 데이터에 정답 레이블을 부여하는 과정입니다. 이를 통해 모델이 학습 데이터와 해당 레이블 간의 관계를 학습할 수 있게 됩니다.데이터 어노테이션의 주요 유형:객체 감지(Object Detection):이미지에서 사물의 위치와 크기를 바운딩 박스 형태로 지정합니다.예: YOLO, Faster R-CNN.이미지 분류(Image Classification):이미지 전체에 하나의 레이블을 부여합니다.예: 개, 고양이, 자동차.세그멘테이션(Segmentation):이미지의 각 픽셀에 레이블을 부여합니다.세부 유형:이미지 분할(Image Segmentation): 이미..
Computer/Machine learning models

RNN에서 사용되는 'input_shape' 알아보자

input_shape에서의 시퀀스 길이와 특성 수는 순환 신경망(RNN) 또는 그 변형인 LSTM, GRU 레이어에 입력되는 데이터의 구조를 나타냅니다. 이들은 시계열 데이터나 텍스트 데이터와 같이 순차적인 데이터를 처리할 때 사용됩니다. 시퀀스 길이 (Sequence Length): 이는 입력 데이터의 시간 단계 또는 순차적인 단계의 수를 나타냅니다. 즉, 하나의 시퀀스 내에 있는 연속적인 데이터 포인트의 개수입니다. 예를 들어, 시계열 데이터에서 시퀀스 길이는 고려하고자 하는 시간 프레임의 길이가 될 수 있습니다. 만약 하루 동안 시간별 데이터를 고려한다면, 시퀀스 길이는 24가 될 수 있습니다. 특성 수 (Number of Features): 이는 각 시간 단계에서의 관찰된 특성(변수)의 수를 나타..
Computer/Machine learning models

LSTM(Long Short-Term Memory)과 GRU(Gated Recurrent Unit)의 특징 비교

LSTM(Long Short-Term Memory)과 GRU(Gated Recurrent Unit)는 둘 다 순환 신경망(RNN)의 변형으로, 시퀀스 데이터(예: 시계열 데이터, 텍스트 등)를 처리하는 데 사용됩니다. 두 구조 모두 기본 RNN의 단점인 장기 의존성 문제를 해결하기 위해 고안되었으나, 그들의 내부 구조와 작동 방식에서 차이가 있습니다. LSTM의 특징 게이트: LSTM은 셀 상태를 조절하기 위해 세 개의 게이트(입력 게이트, 출력 게이트, 망각 게이트)를 사용합니다. 이 게이트들은 네트워크가 장기간에 걸친 의존성을 학습할 수 있도록 돕습니다. 셀 상태: LSTM은 셀 상태라는 추가적인 정보 흐름을 가지고 있으며, 이는 네트워크를 통해 정보를 장기간에 걸쳐 전달하는 데 도움을 줍니다. 매개..
Computer/Machine learning models

recurrent_activation

recurrent_activation recurrent_activation은 순환 신경망(RNN)의 게이트 제어에 사용되는 활성화 함수를 지정하는 옵션입니다. LSTM과 GRU 같은 RNN 구조에서 게이트는 셀의 상태를 어떻게 업데이트할지 결정하는 중요한 역할을 합니다. 여기서는 recurrent_activation에 사용될 수 있는 몇 가지 일반적인 활성화 함수와 그 설명을 제공합니다: 1. Sigmoid ('sigmoid') 설명: sigmoid 함수는 출력을 0과 1 사이로 제한합니다. 이 특성 때문에 sigmoid는 게이트의 열림과 닫힘을 제어하는 데 주로 사용됩니다. 출력이 1에 가까우면 게이트는 완전히 열리고, 0에 가까우면 게이트는 완전히 닫힙니다. 사용 예: LSTM과 GRU의 입력 게이트..
Computer/Machine learning models

Epochs 와 Batch Size

epochs와 batch_size는 신경망을 훈련할 때 사용되는 두 가지 중요한 하이퍼파라미터입니다. 이들의 역할은 다음과 같습니다: Epochs 정의: 한 epoch은 전체 데이터 세트가 신경망을 통해 한 번 전달되는 과정을 의미합니다. 다시 말해, 모든 훈련 데이터가 신경망을 한 번 통과하고 가중치가 업데이트되는 과정이 하나의 epoch입니다. 용도: epochs=100이라는 설정은 전체 훈련 데이터 세트를 신경망을 통해 총 100번 전달하겠다는 것을 의미합니다. 이를 통해 모델이 훈련 데이터로부터 패턴을 학습하고 성능을 개선할 기회를 제공합니다. 중요성: 너무 적은 수의 epoch는 모델이 데이터에서 충분한 패턴을 학습하지 못하게 할 수 있으며, 너무 많은 epoch는 과적합(overfitting)..
Computer/Machine learning models

데이터 분할 : train_test_split

X_train, X_test, y_train, y_test = train_test_split(X_scaled, y, test_size=0.2, random_state=42) 머신러닝 모델을 훈련시키기 위해 전체 데이터셋을 훈련 데이터와 테스트 데이터로 분할하는 과정을 나타냅니다. train_test_split 함수는 scikit-learn 라이브러리의 model_selection 모듈에 포함되어 있으며, 데이터를 무작위로 훈련 세트와 테스트 세트로 나누는 데 사용됩니다. 각 부분의 구성 요소를 자세히 살펴보겠습니다: X_scaled: 모델 훈련에 사용할 피처(독립 변수)입니다. 이 변수는 스케일링된 데이터를 나타내며, 스케일링은 피처들의 범위를 일정하게 맞추기 위해 수행됩니다. 스케일링은 모델의 성능을 ..
EIGHTBOX
EIGHTBOX
hwaya.

programmer

🍋일상의 소소한 순간들부터 큰 꿈까지, 호기심을 만족시킬 다양한 카테고리를 담은 블로그 입니다. 그리고, 소소한 행동에 감동하며 기뻐하고 하루하루에 감사하는 사람🌵

Today Yesterday Total
최신글