심층 학습

심층 학습 표지

- 가격 검색 - 출판사 페이지 - 원서 페이지

관련 블로그 글: OccamsBlog:344

보충 자료

책 앞 부분 "드리는 말씀"에 언급된, 본문의 그림과 수식을 모은 컬러 PDF 파일 링크입니다.

https://drive.google.com/file/d/1awyBBDFFbBp6SGOsNC_6xAsWodpwCjGQ/view

출처는 제이펍 상세 페이지 https://jpub.tistory.com/859

정오표

p.14 199년대 (2018-11-26)

그림 아래 첫 문단 중간에서:

1980년대에서 199년대1990년대에는

(Won-Yang Cho 님 글: http://occamsrazr.net/tt/344#comment-4209998018)

p.17 netword? (2021-06-19)

위에서 넷째 줄에서

합성곱 신경망(convolutional netword neural network; LeCun 외, 1998b)의 기초가 되었다.

p.38 방향과 방법 (2019-02-04)

2.4절 둘째 문단("방정식의 해가 몇 개인지..")에서,

... 나아갈 수 있는 서로 다른 방향들로 간주하고, 그 방향 중 실제로 \(b\)에 도달하는 것이 몇 개인지 세면 된다.

=>

... 나아갈 수 있는 서로 다른 방향들을 명시한다고 간주하고, 그 방향들로 나아가서 실제로 \(b\)에 도달하는 방법이 몇 개인지 센다.

(김연홍 님 글: http://occamsrazr.net/tt/344#comment-4281535953)

p.54 식 2.77 boldd (2021-06-19)

마지막 괄호 안에서 \(\it boldd \) => \(\mathbf d\)

p.55 식 2.84 괄호 안 마지막 \(\top\) 제거 (2022-05-28)

\( {\rm argmaxTr}_d({\bf d}^\top {\bf X}^\top {\bf X} {\bf d}^\top) \)

=>

\({\rm argmaxTr}_d({\bf d}^\top {\bf X}^\top {\bf X} {\bf d}) \)

(2쇄) p.67 첫 문단 그러나 vs 한편 (2021-06-19)

... 두 변수는종속이라는 것이다. 그러나 독립은 공분산과는 개별적인 성질이다. 한편 독립은 공분산 과는 개별적인 성질이다. 두 변수의 공분산이 ...

p.67 공분산과 종속 (2018-11-26)

p.67 첫 문단 둘째 문장과 셋째 문장:

둘의 관계는, 만일 두 변수가 독립이면 공분산은 0이고, 둘이 종속이면 공분산은 0이 아니라는 것이다. 한편 독립은 공분산과는 개별적인 성질이다.

=>

둘의 관계는, 독립인 두 변수의 공분산은 0이고, 공분산이 0이 아닌 두 변수는 종속이라는 것이다. 그러나 독립은 공분산과는 개별적인 성질이다.

(Won-Yang Cho 님 글: http://occamsrazr.net/tt/344#comment-4209994694)

p.90 4.3절 제목 (2019-03-15)

4.3 기울기 벡터 기반 최적화

p.94 곡률과 기울기 (2019-02-04)

4.3.1절 둘째 문단("미분의 미분이 유용할 ... ") 중간에서

곡률이기울기가 1인 경우, 음의 기울기 방향으로

p.119 식 5.5 (2019-03-15)

\(\text{MSE}_{시험} = {1 \over m} || \hat{{\bf \it y}}^{(시험)} = {\bf \it y}^{(시험)} ||_2 ^2\)

=>(우변의 =를 -로)

\(\text{MSE}_{시험} = {1 \over m} || \hat{{\bf \it y}}^{(시험)} - {\bf \it y}^{(시험)} ||_2 ^2\)

p.162 셋째 문단 desentangle (2021-06-19)

독립 표현은 자료 분포에 깔린 변동의 원천들을 풀어헤쳐서(desdisentangle),

p.162 넷째 문단 더 많은 정보 압축(2021-06-19)

중복들을 많이 식별해서 제거할수록, 차원 축소(dimensionality reduction) 알고리즘은 정보를 덜 잃으면서 더 많은 정보를 압축할 수 있게 된다.

=>

중복을 식별하고 제거할수록 차원 축소(dimensionality reduction) 알고리즘의 정보 손실이 줄고 압축률이 높아진다.

p.190 마지막 문단 수식 (2020-07-31)

아래서 두번째 줄에서

\(f(x) = w^⊤ W^⊤ x \)이다.

=>

\(f(x) = x^⊤ W w\)이다.

p.252 "심층학습의 맥락에서 ..." 문단에서 (2020-07-31)

정칙화의 목표는 모형을 세 번째 상황에 해당하는 영역에서

p.256 식 (7.12) (2020-08-21)

식 (7.12)의 오른쪽 대괄호 다음에 지수 -1이 들어가야 합니다. 즉:

\(= \big [Q(\Lambda + \alpha I)Q^⊤ \big ]^{−1} Q \Lambda Q^⊤ w^∗ \)

p.260 L^1 정칙화의 희소성 관련 (2021-08-14)

"L^2 정칙화에 비해 ..." 문단에서

이 문맥에서 희소성(sparsity)은 최적값 0에 도달하는 매개변수들이 많지 않음을 뜻한다.

=>

이 문맥에서 희소성(sparsity)은 일부(some) 매개변수가 최적값 0을 가짐을 뜻한다.

p.359 "탐욕적 지도 사전훈련의 ..." 문단에서 (2020-08-21)

그림 8.118.7에 탐욕적 지도 사전훈련의 예가 나와 있다.


comments powered by Disqus