파이썬 라이브러리를 활용한 머신러닝(번역개정판): 사이킷런 핵심 개발자가 쓴 머신러닝과 데이터 과학 실무서

Book description

"현업에서 머신러닝을 연구하고 인공지능 서비스를 개발하기 위해 꼭 학위를 받을 필요는 없습니다. 사이킷런(scikit-learn)과 같은 훌륭한 머신러닝 라이브러리가 복잡하고 난해한 작업을 직관적인 인터페이스로 감싸주는 덕분이죠. 이 책에서는 사이킷런의 핵심 개발자가 복잡한 수학을 동원하지 않고 실용적으로 머신러닝을 구축하는 모든 단계를 설명합니다. 미적분, 선형대수, 확률 이론을 공부하지 않았어도 이 책을 통해 머신러닝을 활용할 수 있게 될 것입니다.

※ 본 번역개정판은 scikit-learn 업데이트에 따라 전반적으로 내용을 갱신한 원서 4쇄를 기반으로 합니다. 오탈자를 바로잡고, 시각적 편의를 위해 풀컬러로 인쇄했으며, 한국어판 부록 3개 절을 추가했습니다."

Table of contents

  1. 파이썬 라이브러리를 활용한 머신러닝(번역개정판)
    1. 지은이 옮긴이 소개
    2. 추천사
    3. 개정판을 내면서
    4. 이 책에 대하여
    5. 감사의 말
    6. 저자 인터뷰
    7. 목차 (1/2)
    8. 목차 (2/2)
  2. CHAPTER 1. 소개
    1. 1.1 왜 머신러닝인가?
      1. 1.1.1 머신러닝으로 풀 수 있는 문제
      2. 1.1.2 문제와 데이터 이해하기
    2. 1.2 왜 파이썬인가?
    3. 1.3 scikit-learn
      1. 1.3.1 scikit-learn 설치
    4. 1.4 필수 라이브러리와 도구들
      1. 1.4.1 주피터 노트북
      2. 1.4.2 NumPy
      3. 1.4.3 SciPy
      4. 1.4.4 matplotlib
      5. 1.4.5 pandas
      6. 1.4.6 mglearn
    5. 1.5 파이썬 2 vs. 파이썬 3
    6. 1.6 이 책에서 사용하는 소프트웨어 버전
    7. 1.7 첫 번째 애플리케이션: 붓꽃의 품종 분류
      1. 1.7.1 데이터 적재
      2. 1.7.2 성과 측정: 훈련 데이터와 테스트 데이터
      3. 1.7.3 가장 먼저 할 일: 데이터 살펴보기
      4. 1.7.4 첫 번째 머신러닝 모델: k-최근접 이웃 알고리즘
      5. 1.7.5 예측하기
      6. 1.7.6 모델 평가하기
    8. 1.8 요약 및 정리
  3. CHAPTER 2. 지도 학습
    1. 2.1 분류와 회귀
    2. 2.2 일반화, 과대적합, 과소적합
      1. 2.2.1 모델 복잡도와 데이터셋 크기의 관계
    3. 2.3 지도 학습 알고리즘
      1. 2.3.1 예제에 사용할 데이터셋
      2. 2.3.2 k-최근접 이웃 (1/2)
      3. 2.3.2 k-최근접 이웃 (2/2)
      4. 2.3.3 선형 모델 (1/6)
      5. 2.3.3 선형 모델 (2/6)
      6. 2.3.3 선형 모델 (3/6)
      7. 2.3.3 선형 모델 (4/6)
      8. 2.3.3 선형 모델 (5/6)
      9. 2.3.3 선형 모델 (6/6)
      10. 2.3.4 나이브 베이즈 분류기
      11. 2.3.5 결정 트리 (1/3)
      12. 2.3.5 결정 트리 (2/3)
      13. 2.3.5 결정 트리 (3/3)
      14. 2.3.6 결정 트리의 앙상블 (1/2)
      15. 2.3.6 결정 트리의 앙상블 (2/2)
      16. 2.3.7 (한국어판 부록) 배깅, 엑스트라 트리, 에이다부스트 (1/2)
      17. 2.3.7 (한국어판 부록) 배깅, 엑스트라 트리, 에이다부스트 (2/2)
      18. 2.3.8 커널 서포트 벡터 머신 (1/3)
      19. 2.3.8 커널 서포트 벡터 머신 (2/3)
      20. 2.3.8 커널 서포트 벡터 머신 (3/3)
      21. 2.3.9 신경망(딥러닝) (1/3)
      22. 2.3.9 신경망(딥러닝) (2/3)
      23. 2.3.9 신경망(딥러닝) (3/3)
    4. 2.4 분류 예측의 불확실성 추정
      1. 2.4.1 결정 함수
      2. 2.4.2 예측 확률
      3. 2.4.3 다중 분류에서의 불확실성
    5. 2.5 요약 및 정리
  4. CHAPTER 3. 비지도 학습과 데이터 전처리
    1. 3.1 비지도 학습의 종류
    2. 3.2 비지도 학습의 도전 과제
    3. 3.3 데이터 전처리와 스케일 조정
      1. 3.3.1 여러 가지 전처리 방법
      2. 3.3.2 데이터 변환 적용하기
      3. 3.3.3 (한국어판 부록) QuantileTransformer와 PowerTransformer (1/2)
      4. 3.3.3 (한국어판 부록) QuantileTransformer와 PowerTransformer (2/2)
      5. 3.3.4 훈련 데이터와 테스트 데이터의 스케일을 같은 방법으로 조정하기
      6. 3.3.5 지도 학습에서 데이터 전처리 효과
    4. 3.4 차원 축소, 특성 추출, 매니폴드 학습
      1. 3.4.1 주성분 분석(PCA)
      2. 3.4.2 비음수 행렬 분해(NMF) (1/2)
      3. 3.4.2 비음수 행렬 분해(NMF) (2/2)
      4. 3.4.3 t-SNE를 이용한 매니폴드 학습
    5. 3.5 군집
      1. 3.5.1 k-평균 군집
      2. 3.5.2 병합 군집
      3. 3.5.3 DBSCAN
      4. 3.5.4 군집 알고리즘의 비교와 평가 (1/4)
      5. 3.5.4 군집 알고리즘의 비교와 평가 (2/4)
      6. 3.5.4 군집 알고리즘의 비교와 평가 (3/4)
      7. 3.5.4 군집 알고리즘의 비교와 평가 (4/4)
      8. 3.5.5 군집 알고리즘 요약
    6. 3.6 요약 및 정리
  5. CHAPTER 4. 데이터 표현과 특성 공학
    1. 4.1 범주형 변수
      1. 4.1.1 원-핫-인코딩(가변수) (1/2)
      2. 4.1.1 원-핫-인코딩(가변수) (2/2)
      3. 4.1.2 숫자로 표현된 범주형 특성
    2. 4.2 ‌OneHotEncoder와 ColumnTransformer: scikit-learn으로 범주형 변수 다루기
    3. 4.3 ‌make_column_transformer로 간편하게 ColumnTransformer 만들기
    4. 4.4 ‌구간 분할, 이산화 그리고 선형 모델, 트리 모델
    5. 4.5 상호작용과 다항식 (1/2)
    6. 4.5 상호작용과 다항식 (2/2)
    7. 4.6 일변량 비선형 변환
    8. 4.7 특성 자동 선택
      1. 4.7.1 일변량 통계
      2. 4.7.2 모델 기반 특성 선택
      3. 4.7.3 반복적 특성 선택
    9. 4.8 전문가 지식 활용 (1/2)
    10. 4.8 전문가 지식 활용 (2/2)
    11. 4.9 요약 및 정리
  6. CHAPTER 5. 모델 평가와 성능 향상
    1. 5.1 교차 검증
      1. 5.1.1 scikit-learn의 교차 검증
      2. 5.1.2 교차 검증의 장점
      3. 5.1.3 계층별 k-겹 교차 검증과 그외 전략들 (1/2)
      4. 5.1.3 계층별 k-겹 교차 검증과 그외 전략들 (2/2)
      5. 5.1.4 (한국어판 부록) 반복 교차 검증
    2. 5.2 그리드 서치
      1. 5.2.1 간단한 그리드 서치
      2. 5.2.2 매개변수 과대적합과 검증 세트
      3. 5.2.3 교차 검증을 사용한 그리드 서치 (1/4)
      4. 5.2.3 교차 검증을 사용한 그리드 서치 (2/4)
      5. 5.2.3 교차 검증을 사용한 그리드 서치 (3/4)
      6. 5.2.3 교차 검증을 사용한 그리드 서치 (4/4)
    3. 5.3 평가 지표와 측정
      1. 5.3.1 최종 목표를 기억하라
      2. 5.3.2 이진 분류의 평가 지표 (1/5)
      3. 5.3.2 이진 분류의 평가 지표 (2/5)
      4. 5.3.2 이진 분류의 평가 지표 (3/5)
      5. 5.3.2 이진 분류의 평가 지표 (4/5)
      6. 5.3.2 이진 분류의 평가 지표 (5/5)
      7. 5.3.3 다중 분류의 평가 지표
      8. 5.3.4 회귀의 평가 지표
      9. 5.3.5 모델 선택에서 평가 지표 사용하기
    4. 5.4 요약 및 정리
  7. CHAPTER 6. 알고리즘 체인과 파이프라인
    1. 6.1 데이터 전처리와 매개변수 선택
    2. 6.2 파이프라인 구축하기
    3. 6.3 그리드 서치에 파이프라인 적용하기
    4. 6.4 파이프라인 인터페이스
      1. 6.4.1 make_pipleline을 사용한 파이프라인 생성
      2. 6.4.2 단계 속성에 접근하기
      3. 6.4.3 그리드 서치 안의 파이프라인 속성에 접근하기
    5. 6.5 전처리와 모델의 매개변수를 위한 그리드 서치
    6. 6.6 모델 선택을 위한 그리드 서치
      1. 6.6.1 중복 계산 피하기
    7. 6.7 요약 및 정리
  8. CHAPTER 7. 텍스트 데이터 다루기
    1. 7.1 문자열 데이터 타입
    2. 7.2 예제 애플리케이션: 영화 리뷰 감성 분석
    3. 7.3 텍스트 데이터를 BOW로 표현하기
      1. 7.3.1 샘플 데이터에 BOW 적용하기
      2. 7.3.2 영화 리뷰에 대한 BOW
    4. 7.4 불용어
    5. 7.5 tf–idf로 데이터 스케일 변경하기
    6. 7.6 모델 계수 조사
    7. 7.7 여러 단어로 만든 BOW(n-그램)
    8. 7.8 고급 토큰화, 어간 추출, 표제어 추출
      1. 7.8.1 (한국어판 부록) KoNLPy를 사용한 영화 리뷰 분석
    9. 7.9 토픽 모델링과 문서 군집화
      1. 7.9.1 LDA
    10. 7.10 요약 및 정리
  9. CHAPTER 8. 마무리
    1. 8.1 머신러닝 문제 접근 방법
      1. 8.1.1 의사 결정 참여
    2. 8.2 프로토타입에서 제품까지
    3. 8.3 제품 시스템 테스트
    4. 8.4 나만의 추정기 만들기
    5. 8.5 더 배울 것들
      1. 8.5.1 이론
      2. 8.5.2 다른 머신러닝 프레임워크와 패키지
      3. 8.5.3 랭킹, 추천 시스템과 그 외 다른 알고리즘
      4. 8.5.4 확률 모델링, 추론, 확률적 프로그래밍
      5. 8.5.5 신경망
      6. 8.5.6 대규모 데이터셋으로 확장
      7. 8.5.7 실력 기르기
    6. 8.6 마치며
  10. index (1/2)
  11. index (2/2)

Product information

  • Title: 파이썬 라이브러리를 활용한 머신러닝(번역개정판): 사이킷런 핵심 개발자가 쓴 머신러닝과 데이터 과학 실무서
  • Author(s): 박해선, 안드레아스 뮐러, 세라 가이도
  • Release date: April 2019
  • Publisher(s): Hanbit Media, Inc.
  • ISBN: 9791162241646