새로운 개선된 버전의 머신러닝 단기집중과정이 2024년 8월 에 제공될 예정입니다. 감사합니다
역전파 는 신경망의 가장 일반적인 학습 알고리즘입니다.
다층 신경망에서 경사하강법을 사용할 수 있게 해줍니다.
TensorFlow는 역전파를 자동으로 처리하므로 알고리즘을 깊이 이해할 필요는 없습니다. 이 알고리즘의 작동 방식을 알아보려면 역전파 알고리즘 시각적 설명 을 참조하세요.
위 설명을 스크롤하다 보면 다음 사항에 주목하세요.
데이터가 그래프를 통해 이동하는 방식
동적 프로그래밍을 통해 기하급수적으로 증가하는 그래프 통과 경로를
계산할 필요가 없는 이유 여기서 '동적 프로그래밍'은 정방향 및 역방향 전달에서
중간 결과를 기록함을 의미합니다.
신경망 학습
역전파: 알아야 할 사항
경사의 중요성
미분할 수 있다면 아마도 학습이 가능할 것입니다.
역전파: 알아야 할 사항
경사의 중요성
미분할 수 있다면 아마도 학습이 가능할 것입니다.
경사의 소실 가능성
레이어를 추가할수록 신호와 노이즈가 연속적으로 감소할 수 있음
ReLus가 유용함
역전파: 알아야 할 사항
경사의 중요성
미분할 수 있다면 아마도 학습이 가능할 것입니다.
경사의 소실 가능성
레이어를 추가할수록 신호와 노이즈가 연속적으로 감소할 수 있음
ReLus가 유용함
그래디언트의 발산 가능성
학습률의 중요성
배치 정규화(유용한 노브)로 해결 가능
역전파: 알아야 할 사항
경사의 중요성
미분할 수 있다면 아마도 학습이 가능할 것입니다.
경사의 소실 가능성
레이어를 추가할수록 신호와 노이즈가 연속적으로 감소할 수 있음
ReLus가 유용함
그래디언트의 발산 가능성
학습률의 중요성
배치 정규화(유용한 노브)로 해결 가능
ReLu 레이어의 소멸 가능성
특성 값 정규화
특성에 적절한 배율을 지정하고 싶습니다.
대부분 0에 중심을 두고 [-1, 1] 범위가 잘 작동합니다.
경사하강법의 수렴, NaN 트랩 방지
이상점 값을 피하는 것도 도움이 됨
몇 가지 표준 메서드를 사용할 수 있습니다.
선형 조정
최대값, 최소값 강제 제한(클리핑)
로그 조정
드롭아웃 정규화
드롭아웃: 또 다른 형태의 정규화, NN에 유용
단일 경사 스텝에서 네트워크의 유닛을 무작위로 '배제'하는 방식으로 작동
드롭아웃이 많을수록 정규화가 강력해짐
0.0 = 드롭아웃 정규화 없음
1.0 = 전부 드롭아웃! 아무것도 학습하지 않음
중간 값이 더 유용함
이 동영상 강의의 음성 더빙은 머신러닝 기술을 사용하여 생성되었습니다. Google의 음성 더빙 기술을 개선하도록 도와주세요. 위의 '의견 보내기'를 클릭하여 버그 신고 및 제안사항을 제출해 주세요.
영어 오디오로 변경하려면 페이지 왼쪽 하단의 드롭다운에서 영어를 선택합니다.