심층 학습
관련 블로그 글: OccamsBlog:344
보충 자료
책 앞 부분 "드리는 말씀"에 언급된, 본문의 그림과 수식을 모은 컬러 PDF 파일 링크입니다.
https://drive.google.com/file/d/1awyBBDFFbBp6SGOsNC_6xAsWodpwCjGQ/view
출처는 제이펍 상세 페이지 https://jpub.tistory.com/859
정오표
p.14 199년대 (2018-11-26)
그림 아래 첫 문단 중간에서:
1980년대에서 199년대1990년대에는
(Won-Yang Cho 님 글: http://occamsrazr.net/tt/344#comment-4209998018)
p.17 netword? (2021-06-19)
위에서 넷째 줄에서
합성곱 신경망(convolutional netword neural network; LeCun 외, 1998b)의 기초가 되었다.
p.38 방향과 방법 (2019-02-04)
2.4절 둘째 문단("방정식의 해가 몇 개인지..")에서,
... 나아갈 수 있는 서로 다른 방향들로 간주하고, 그 방향 중 실제로 $b$에 도달하는 것이 몇 개인지 세면 된다.
=>
... 나아갈 수 있는 서로 다른 방향들을 명시한다고 간주하고, 그 방향들로 나아가서 실제로 $b$에 도달하는 방법이 몇 개인지 센다.
(김연홍 님 글: http://occamsrazr.net/tt/344#comment-4281535953)
p.54 식 2.77 boldd (2021-06-19)
마지막 괄호 안에서 $\it boldd $ => $\mathbf d$
p.55 식 2.84 괄호 안 마지막 $\top$ 제거 (2022-05-28)
$ {\rm argmaxTr}_d({\bf d}^\top {\bf X}^\top {\bf X} {\bf d}^\top) $
=>
${\rm argmaxTr}_d({\bf d}^\top {\bf X}^\top {\bf X} {\bf d}) $
(2쇄) p.67 첫 문단 그러나 vs 한편 (2021-06-19)
... 두 변수는종속이라는 것이다. 그러나 독립은 공분산과는 개별적인 성질이다. 한편 독립은 공분산
과는 개별적인 성질이다. 두 변수의 공분산이 ...
p.67 공분산과 종속 (2018-11-26)
p.67 첫 문단 둘째 문장과 셋째 문장:
둘의 관계는, 만일 두 변수가 독립이면 공분산은 0이고, 둘이 종속이면 공분산은 0이 아니라는 것이다. 한편 독립은 공분산과는 개별적인 성질이다.
=>
둘의 관계는, 독립인 두 변수의 공분산은 0이고, 공분산이 0이 아닌 두 변수는 종속이라는 것이다. 그러나 독립은 공분산과는 개별적인 성질이다.
(Won-Yang Cho 님 글: http://occamsrazr.net/tt/344#comment-4209994694)
p.90 4.3절 제목 (2019-03-15)
4.3 기울기 벡터 기반 최적화
p.94 곡률과 기울기 (2019-02-04)
4.3.1절 둘째 문단("미분의 미분이 유용할 ... ") 중간에서
곡률이기울기가 1인 경우, 음의 기울기 방향으로
p.119 식 5.5 (2019-03-15)
$\text{MSE}_{시험} = {1 \over m} || \hat{{\bf \it y}}^{(시험)} = {\bf \it y}^{(시험)} ||_2 ^2$
=>(우변의 =를 -로)
$\text{MSE}_{시험} = {1 \over m} || \hat{{\bf \it y}}^{(시험)} - {\bf \it y}^{(시험)} ||_2 ^2$
p.162 셋째 문단 desentangle (2021-06-19)
독립 표현은 자료 분포에 깔린 변동의 원천들을 풀어헤쳐서(desdisentangle),
p.162 넷째 문단 더 많은 정보 압축(2021-06-19)
중복들을 많이 식별해서 제거할수록, 차원 축소(dimensionality reduction) 알고리즘은 정보를 덜 잃으면서 더 많은 정보를 압축할 수 있게 된다.
=>
중복을 식별하고 제거할수록 차원 축소(dimensionality reduction) 알고리즘의 정보 손실이 줄고 압축률이 높아진다.
p.190 마지막 문단 수식 (2020-07-31)
아래서 두번째 줄에서
$f(x) = w^⊤ W^⊤ x $이다.
=>
$f(x) = x^⊤ W w$이다.
p.252 "심층학습의 맥락에서 ..." 문단에서 (2020-07-31)
정칙화의 목표는 모형을 세 번째 상황에 해당하는 영역의에서
p.256 식 (7.12) (2020-08-21)
식 (7.12)의 오른쪽 대괄호 다음에 지수 -1이 들어가야 합니다. 즉:
$= \big [Q(\Lambda + \alpha I)Q^⊤ \big ]^{−1} Q \Lambda Q^⊤ w^∗ $
p.260 L^1 정칙화의 희소성 관련 (2021-08-14)
"L^2 정칙화에 비해 ..." 문단에서
이 문맥에서 희소성(sparsity)은 최적값 0에 도달하는 매개변수들이 많지 않음을 뜻한다.
=>
이 문맥에서 희소성(sparsity)은 일부(some) 매개변수가 최적값 0을 가짐을 뜻한다.
p.359 "탐욕적 지도 사전훈련의 ..." 문단에서 (2020-08-21)
그림 8.118.7에 탐욕적 지도 사전훈련의 예가 나와 있다.
comments powered by Disqus