세바스찬 라시카Sebastian Raschka의 아마존 베스트 셀러 <머신 러닝 교과서>가 파이토치pytorch 편으로 다시 태어났습니다!
이 책은 <머신 러닝 교과서>의 딥러닝 파트를 텐서플로가 아닌 파이토치로 재작성한 책입니다. 단순히 라이브러리만 바꾼 것이 아니라 파이토치를 설명하기 위해 예제와 내용을 모두 수정했습니다. 더불어 최근 LLM에서 각광받고 있는 트랜스포머Transformer 라이브러리를 한 장에 걸쳐 설명합니다! 또한 기존 머신 러닝 책에서는 보기 힘든 그래프 신경망Graph Neural Network도 소개합니다! <머신 러닝 교과서 3판>과 <머신 러닝 교과서: 파이토치 편>의 차이는 아래 그림을 참고하세요!
- 온라인/오프라인 서점에서 판매 중입니다! [Yes24], [교보문고], [알라딘]
- 876페이지,
58,000원-> 52,200원, 전자책: 46,400원 - 이 책의 코드는 깃허브에 주피터 노트북으로 제공됩니다.
이 책에 대해 궁금한 점이 있으면 카카오톡 오픈 채팅(http://bit.ly/tensor-chat :참여코드 flow)이나 텐서 플로우 디스코드 서버(https://discord.gg/fD3KzsZzJS)에서 질문하실 수 있습니다!
이 페이지에서 책의 에러타를 ‘Outputs‘ 아래에 계속 업데이트 하겠습니다. 이 책에 대해 궁금한 점이나 오류가 있으면 이 페이지 맨 아래 ‘Your Inputs’에 자유롭게 글을 써 주세요. 또 제 이메일을 통해서 알려 주셔도 되고 구글 그룹스 머신러닝/딥러닝 도서 Q&A에 글을 올려 주셔도 좋습니다.
감사합니다! 🙂
Outputs (aka. errata)
- (p116) 아래에서 5번째 줄에 “당연하지만 열을 모두 더하면”을 “당연하지만 각 행의 열을 모두 더하면”으로 수정합니다.
- (p111) 아래에서 16번째 줄에 “각 에포크의 평균 제곱 오차 손실 함수 값”을 “각 에포크의 로지스틱 손실 함수 값”으로 수정합니다.
- (p664) 위에서 9번째 줄에
>>> from torch.utils.data import Dataset을 삭제합니다. - (p476) 위에서 3번째 줄의 공식에서
를
로 수정합니다.
- (p653) 위에서 9번째 줄에 “크기는
10x6이 됩니다”를 “크기는10x3이 됩니다”로 수정합니다. - (p121) 위에서 3번째 줄에 “가중치가
에 가까워지면”을 “가중치가 0에 가까워지면”으로 수정합니다.(가*다 님)
- (p376) 그림 9-2 위 두 번째 줄 “여기에서
은
축의 절편이고
입니다” 문장을 삭제합니다.(가*다 님)
- (p453) 위에서 2번째 줄에
을
로 수정합니다.(가*다 님)
- (p455) 아래에서 7번째 줄에 “
은 절편을 더한
차원 특성 벡터입니다.
는
차원의 가중치 행렬입니다”를 “
는
차원 특성 벡터입니다.
는
차원의 가중치 행렬입니다”로 수정합니다.(가*다 님)
- (p461) 위에서 2번째 줄에 “다음 코드는 5만 5,000개의 이미지를, 훈련에 5,000개의 이미지를 사용하고 검증에 10,000개의 이미지를 테스트에 사용하도록 데이터셋을 분할합니다”를 “다음 코드는 5만 5,000개의 이미지를 훈련에, 5,000개의 이미지를 검증에, 10,000개의 이미지를 테스트에 사용하도록 데이터셋을 분할합니다”로 수정합니다.(가*다 님)
- (p476) 위에서 7번째 줄에
을
로 수정합니다.(가*다 님)
- (p480) 위에서 8번째 줄
수식과 아래에서 3번째 줄
수식에서
를
로 수정합니다. 위에서 10번째 줄
수식에서
을 모두
로 수정합니다.(가*다 님)
- (p482) 아래에서 8번째 줄에서
을
로 수정합니다.(가*다 님)
- (p139) 페이지 중간 코드 블록에서
feature_names변수를 정의하는 부분을 다음과 같이 수정합니다.feature_names = ['Petal length', 'Petal width']
그림 3-23에서 Sepal length를 Petal length로 Sepal width를 Petal width로 수정합니다.(유*우 님) - (p180) 위에서 7번째 줄에서 “2장에서 사용했던 제곱 오차합(SSE) 손실 함수를”을 “2장에서 사용했던 평균 제곱 오차(MSE) 손실 함수를”로 정정합니다.(유*우 님)
- (p471) 그림 11-7 위 마지막 코드 라인에서
plt.show(loc='lower right')를plt.show()로 정정합니다.(한*석 님) - (p530) 아래에서 8번째 줄에
torch. ()를torch.relu()로 정정합니다.(한*석 님) - (p549) 위에서 9번째 줄에 ‘세 개의 은닉층으로 구성된’을 ‘두 개의 은닉층으로 구성된’으로 수정합니다.(한*석 님)
- (p558) 아래에서 7번째 줄에
dataset_path = dataset_path.replace("auto+mpg.zip", "auto-mpg.data")를url = dataset_path.replace("auto+mpg.zip", "auto-mpg.data")로 정정합니다.(한*석 님) - (p638) 그림 15-6에서 맨 오른쪽 최종 출력의 공식에서
를
로 수정합니다.(한*석 님)
- (p214) 역주 노트 위에서 3번째 줄과 10번째 줄 아래
pca.fit(X_train_std)를 추가합니다.(한*석 님) - (p242) 그림 6-2 바로 위의 코드
pipe를pipe_lr로 수정합니다.(한*석 님) - (p247) 페이지 위쪽에 있는 코드 출력에서 “폴드: 1″~”폴드: 9″를 “폴드: 01″~”폴드: 09″로 수정합니다.(한*석 님)
- (p69) 6번 주석의 첫 번째 줄 끝에
을
로 정정합니다.(최*별 님)
- (p429) 그림 10-6에서 클러스터 1과 2를 바꿉니다. 깃허브(https://github.com/rickiepark/ml-with-pytorch/blob/main/ch10/ch10.ipynb) 노트북의 결과를 참고하세요.(김*주 님)
- (p422) 위에서 13번째 줄에 “1보다 크거가 같으며“를 “1보다 크며“로 수정합니다.(최*별 님)
- (p515) 위에서 9번째 줄부터 시작하는
with문의 블록을for블록 안에 포함되도록 들여쓰기 합니다. 깃허브 노트북을 참고하세요(https://bit.ly/3Cxa8g3).(최*별 님) - (p564) 위에서 11번째 줄과 15번째 줄에서
download=False를download=True로 수정합니다. - (p220, 221) 220페이지 맨 아래 식과 221페이지 두 개의 식에서
를
로 수정합니다.
- (p294) 사이킷런 1.6.0버전에서 추정기 유형을 감지하는 방법이 변경되어 위에서 첫 번째 줄에
MajorityVoteClassifier(BaseEstimator, ClassifierMixin)을MajorityVoteClassifier(,ClassifierMixinBaseEstimator)로 수정합니다. - (p63) 그림 2-2의 오른쪽 결정 경계 그래프에서
을
로,
을
로 수정합니다.(이*영 님)
- (p86) 그림 2-13의 그래프를 텍스트는 유지한 채 다음 그림으로 교체합니다.(이*영 님)

Your Inputs

