본문 바로가기
반응형

DATA_SCIENCE/Deep Learning19

[딥러닝] 규제 (Regularization) 해설, 정리, 요약 안녕하세요, HELLO 딥러닝은 어떤 현상에 대해서 가장 자세히 설명하기 위한 모델 함수를 찾는 것이 목적입니다. 모델을 찾을 때, 실제 정답과 모델이 예측한 결과 간의 오차가 발생하고, 정답 y와 모델이 예측값 y^과의 차이를 손실 함수 (Loss function, Cost function)이라고 합니다. 딥러닝 모델의 성능을 올리기 위해서는 손실 함수를 최소화해야 합니다. 모델에 훈련 데이터의 특징, 패턴 등이 과하게 적용되어, 손실 함수가 필요 이상으로 작아지게 되는 경우를 과적합 (Overfitting)이라고 합니다. Overfitting이 발생하게 되면 학습에 사용된 데이터에 대해서만 잘 설명하고, 다른 데이터에 대해서는 설명이 부족해지는 일반화 능력 (Generalization)이 부족해집니다.. 2023. 11. 5.
[딥러닝] 차원의 저주 (Curse of dimensionality) 해설, 정리, 요약 안녕하세요, HELLO 차원의 저주는 고차원 공간에서 데이터 포인트의 밀도가 극단적으로 희박해지는 현상을 가리킵니다. 이는 고차원 데이터를 처리하거나 분석할 때 발생하는 문제로, 학습 및 예측의 정확도를 저하시키는 원인이 됩니다. 오늘은 차원의 저주 (Curse of dimensionality)에 대해서 정리해 보겠습니다. CHAPTER 1. '차원의 저주 (Curse of dimensionality)' 개요 CHAPTER 2. '차원의 저주 (Curse of dimensionality)' 문제점 CHAPTER 3. '차원의 저주 (Curse of dimensionality)' 예시 CHAPTER 1. '차원의 저주 (Curse of dimensionality)' 개요 차원의 저주는 고차원 데이터를 다룰.. 2023. 10. 31.
[딥러닝] 데이터 거버넌스 (Data Governance) 해설, 정리, 요약 안녕하세요, HELLO 데이터 거버넌스 Data Governance는 조직이 데이터 자산을 관리하는 방법을 정의하는 일련의 프로세스, 정책, 표준 및 지침입니다. 데이터 거버넌스의 목적은 데이터가 정확하고, 신뢰할 수 있으며, 안전하고, 관련 법률과 규정을 준수하도록 보장하는 것입니다. 오늘은 데이터 거버넌스에 대해서 정리해 보겠습니다. CHAPTER 1. '데이터 거버넌스 Data Governance' 정의 CHAPTER 2. '데이터 거버넌스 Data Governance' 책임 CHAPTER 1. '데이터 거버넌스 Data Governance' 정의 데이터 거버넌스 Data Governance는 조직이 데이터 자산을 관리하는 방법을 정의하는 일련의 프로세스, 정책, 표준 및 지침입니다. 데이터 거버넌.. 2023. 3. 27.
[딥러닝] 소프트맥스 함수 (Softmax Activation Function) 해설, 정리, 요약 안녕하세요, HELLO 소프트맥스 함수, softmax activiation function는 분류 작업을 위해 신경망에서 널리 사용되는 함수입니다. 이 함수는 임의의 실수 벡터를 확률 분포로 변환하며, 벡터의 각 요소는 특정 클래스의 확률을 나타내기 때문에 유용합니다. 오늘은 소프트맥스 함수에 대해서 정리하려고 합니다. CHAPTER 1. '소프트맥스 활성화 함수 (Softmax Activation Function)' 선행 지식 CHAPTER 2. '소프트맥스 함수 (Softmax Function), 최대 함수 (Max Function)' 차이점 CHAPTER 1. '소프트맥스 활성화 함수 (Softmax Activation Function)' 선행 지식 소프트맥스 활성화 함수는 분류 작업을 위해 신경.. 2023. 3. 19.
[딥러닝] End to End model (E2E model) 해설, 정리, 요약 안녕하세요, HELLO End to End model은 수동 피처 엔지니어링 (manual feature engineering)이나 중간 처리 단계 없이 입력 데이터에서 출력 데이터로 직접 작업을 수행하는 방법을 학습하는 일종의 머신러닝 모델입니다. 즉, 수작업으로 만든 특징이나 전처리 단계에 의존하지 않고 원시 데이터를 입력으로 받아 원하는 출력을 직접 생성합니다. 오늘은 end to end, e2e model에 대해서 살펴보고자 합니다. CHAPTER 1. 'End to End model' 선행 지식 CHAPTER 2. 'Non End to End model과 End to End model 차이점' CHAPTER 1. 'End to End model' 선행 지식 End to End model은 아래와.. 2023. 2. 24.
[딥러닝] 레벤슈타인 거리 Levenshtein Distance 해설, 정리, 요약 안녕하세요, HELLO Edit Distance라고도 하는 Levenshtein Distance는 두 문자열 간의 차이를 측정하는 데 사용되는 방법입니다. 이는 한 문자열을 다른 문자열로 변환하는 데, 필요한 단일 문자 편집(삽입, 삭제 또는 대체)의 최소 수를 의미합니다. Levenshtein Distance는 1965년 알고리즘을 처음 소개한 러시아 수학자 Vladimir Levenshtein의 이름을 따서 명명되었습니다. 오늘은 Levenshtein distance에 대해서 정리하고자 합니다. CHAPTER 1. 'Levenshtein Distance' 개요 CHAPTER 2. 'Levenshtein Distance' 사용 CHAPTER 1. 'Levenshtein Distance' 개요 두 문자열.. 2023. 2. 21.
[딥러닝] 다이스 스코어 (Dice Score) 해설, 정리, 요약 안녕하세요, HELLO Sørensen–Dice 계수라고도 하는 Dice score, 다이스 스코어는 segmentation 또는 predicted, true 이미지 영역과 같은 두 이진 데이터 세트 간의 유사성을 측정하는 데 사용되는 컴퓨터 비전의 일반적인 평가 metric입니다. 다이스 스코어의 범위는 0과 1 사이이며 값이 1이면 두 세트가 완전히 겹치는 것을 나타내고, 값이 0이면 겹치는 부분이 전혀 없음을 나타냅니다. 오늘은 이미지 분야에서 평가 지표로 활용되는 Dice score, 다이스 스코어에 대해서 정리해 보겠습니다. CHAPTER 1. 'Dice score, 다이스 스코어' 개요 CHAPTER 2. 'Dice score, 다이스 스코어' 계산 방법 CHAPTER 1. 'Dice scor.. 2023. 2. 20.
[딥러닝] 배치 (Batch), 배치 사이즈, 배치 크기 (Batch size) 해설, 정리, 요약 안녕하세요, HELLO "Batch 배치"와 "Batch size 배치 사이즈"는 딥러닝에서 많이 사용되지만, 헷갈리기 쉬워 혼용되는 용어입니다. 오늘은 배치와 배치 사이즈에 대해서 정리하려고 합니다. CHAPTER 1. 'Batch, Batch size' 정리 CHAPTER 2. 'Batch size 하이퍼파라미터' 정리 CHAPTER 1. 'Batch, Batch size' 정리 배치는 독립적으로 처리되지만 병렬로 처리되는 일련의 샘플입니다. 즉, 배치는 모델의 매개변수를 업데이트하는 데 사용되는 전체 교육 데이터 세트의 하위 집합입니다. 배치 사용의 기본 개념은 모델이 한 번에 하나의 샘플을 처리하는 것보다, 계산적으로 더 효율적일 수 있는 forward/backward path에서 여러 샘플로부터.. 2023. 2. 13.
[딥러닝] 전이 학습 (Transfer Learning) 해설, 정리, 요약 안녕하세요, HELLO "전이 학습 (Transfer Learning)"은 모델을 처음부터 훈련시키는 대신, 사전 훈련된 딥러닝 모델을 새로운 작업이나 데이터 세트에 재사용하는 프로세스를 가리키는 딥러닝의 설계 패턴입니다. 전이 학습의 주요 아이디어는 ImageNet과 같은 크고 다양한 데이터 세트에서 학습한 지식을 활용하여, 새로운 작업에 대한 딥러닝 모델의 성능과 효율성을 향상하는 것입니다. 전이 학습은 다음과 같은 다양한 시나리오에서 사용할 수 있습니다. 사전 훈련된 모델에서 유사한 데이터 분포를 가진 새로운 작업으로 모델을 적용 사전 훈련된 모델에서 상이한 데이터 분포를 가진 새로운 작업으로 모델을 적용 제한된 교육 데이터를 사용하여 사전 훈련된 모델에서 새로운 작업으로 모델을 적용 전이 학습을 .. 2023. 2. 13.
반응형