NLP, 자연어처리,  텐서플로우,  Tensorflow, 강의
  • 데이터사이언스
  • 초급, 중급

Tensorflow를 활용한 자연어처리 실전 : 리뷰 감성 분류, 챗봇 구현, 최신 모델까지

자연어처리 강의의 끝판왕! 위키독스 BEST 추천 ‘딥러닝을 이용한 자연어 처리’ 공동저자와 함께하는 자연어처리 실전 강좌!

바로 수강
수강 기한
평생 수강
  • 온라인
    총 76강, 약 18시간 47분

딥러닝 자연어처리 실전 마스터 19시간 완성

위키독스 자연어처리 분야 1위 베스트셀러 저자에게 직접 배우세요.


강의소개

자연어처리를 위한 전처리부터 챗봇 구현까지!

자연어처리 강의

01. 위키독스 자연어 처리 분야 1위 베스트셀러 저자의 직강!

2,500명 이상이 선택한 "딥 러닝을 이용한 자연어 처리 입문" 저자로부터 자연어처리 기술을 습득하세요.

02. 10기 이상 진행된 러닝스푼즈 오프라인 명강의를 온라인으로 평생 소장하세요!

만족도 9.3 이상의 오프라인 강의를 이제 온라인으로 만나볼 수 있습니다. 자연어 전처리부터 챗봇 구현까지 이론과 실습을 반복 학습하며 실전에 적용해볼 수 있습니다.

03. 한글 데이터를 활용하여 자연어처리를 보다 쉽게 학습하세요!

자연어처리를 공부하고 싶지만 국문으로 된 자료가 많지 않아 막막하셨나요? 본 과정에서는 영어 뿐만 아니라 한국어 자연어 처리를 함께 진행함으로써 영어와 한국어 자연어 처리 특징을 비교하고, 나아가 현업에 실제 적용하실 수 있습니다. 이론부터 실습까지 한번에 배워보세요!


본 강의에서
무엇을 얻어갈 수 있나요?

위키독스 딥 러닝을 이용한 자연어 처리 입문 저자의 스킬

  • 현업 분석가의

    노하우 습득

    위키독스 교재에는 없는 강사님만의 노하우를 포함한 PDF 파일과 실습용 코드를 제공합니다.
    금융 대기업에서 데이터분석 실무를 이어온 강사님의 실무 노하우와 스킬을 마스터하세요.

    자연어처리 강의
  • 인사이트 도출

    다양한 분야로 활용 가능

    딥러닝 자연어처리는 특정 분야에만 적용되는 것이 아니라 회사의 도메인과 상관없이 거의 모든 분야에서 활용이 가능합니다.
    본 수업을 통해 실무에서 맞이하게 되는 고민들을 해결해나갈 수 있는 인사이트와 기술력을 얻을 수 있습니다.

    자연어처리 강의
  • 실전에 바로 활용하는

    실습 기반 학습

    한국어 텍스트 전처리 실습부터, 사용자 질의를 분류하고 개체명을 인식하는 Intent Classification 및 Named Entity Recongnition 구현, Seq2Seq 모델을 사용한 챗봇 구현, koBERT를 이용한 네이버 영화 리뷰 감성 예측, Huggingface Transformer를 사용한 한국어 BERT 실습까지 경험할 수 있습니다.

    자연어처리 강의

19시간으로 끝내는 딥러닝 자연어처리 실전 A to Z,
러닝스푼즈와 함께하세요!


본 강의가 특별한 이유는
무엇인가요?

1

쉽게 이해하는 한국어 자연어처리 핵심 논문

딥러닝 공부를 위해 논문을 공부하는 것은 필수이지만, 짧게 요약된 설명들과 문헌마다 다른 이미지 사용은 오히려 딥러닝 학습 초심자를 혼란스럽게 합니다. 이 강의는 저자가 직접 제작한 수많은 교육용 이미지들을 사용하여 자연어 처리 논문을 쉽고 직관적으로 이해할 수 있습니다. 특히 영어 논문이 아닌, 한국어를 활용하여 실용적으로 배우실 수 있습니다.

2

'위키독스' BEST 추천책 저자의 직강

파이썬, 자바, 머신러닝, 알고리즘 트레이딩 등 수많은 IT 베스트 도서를 탄생시킨 ‘위키독스’에서 2,500명 이상의 추천을 받은 Best 추천 교재 ‘딥 러닝을 이용한 자연어 처리’ 공동 저자가 직접 쉽고 꼼꼼하게 강의합니다. 어려웠던 자연어 처리! 그 개념의 기초부터 챗봇 구현까지 Best 추천 교재의 저자님께 직접 듣고 이해해보세요.

3

자연어처리 전처리부터 최신 모델 학습까지

강의가 끝난 후에도 지속 가능한 자연어 처리 개발, 비즈니스를 위해 자연어 처리의 밑바닥 개념부터 복잡한 최신 모델까지 필요한 개념만을 정리한 강의입니다.
자연어처리를 위한 기본적인 전처리 방법부터 자연어처리의 최신 모델인 Transformer 기반의 BERT를 내 업무에 직접 활용해보세요.

FAQ

강의에 대해
궁금한 점이 있으신가요?

1. 기초 지식이 없어도 수강이 가능한가요?

본 강의는 파이썬 문법 및 머신러닝 이론, Tensorflow 기초 등의 이해가 필요합니다.

2. 수강 시, 준비 사항은 어떤 것이 있을까요?

실습을 진행하기 위해서는 노트북 또는 데스크탑이 필요합니다.
OS는 Windows OS, Mac OS 모두 가능합니다.
강의 중 실습은 Colab 환경에서 진행되기 때문에 별도의 설치 파일은 불필요합니다.

이런 내용을
배우시게 될 거예요!

1

딥러닝 자연어처리를 위한 전처리 실습 : Tokenization, Clearning and Norm, Language Model

2

선형 회귀, 로지스틱 회귀, 소프트맥스 회귀 이론 및 Tensorflow 구현

3

자연어처리의 비밀, Word Embedding : Word2Ve, CBoW, Skip-gram, FastTest, GloVe

4

RNN, CNN을 통한 텍스트 처리 : many-to-one, many-to-many, LSTM, Conv1D

5

딥러닝 기반 챗봇 구현 : Intent Classification, Named Entity Recognition

6

딥러닝 기반 챗봇 구현 : Sequence to Sequence, Subword Tokenization

7

어텐션 매커니즘 : Dot product Attention, Bahdanau Attention, Luong Attention

8

챗봇 학습 및 영화 리뷰 감성 예측 : Transformer와 BERT

수강 대상

이런 분들은 꼭 들으셔야 해요!


자연어처리의 기초부터 완벽하게 배우고 싶으신 분


현업에 사용되는 자연어처리의 최신 기술을 배우고 싶은 분


영어와 한국어로 동시에 배우는 자연어처리 기술을 활용하고 싶은 분

강사소개

우리 강사님을 소개할게요!

자연어처리 강의

안상준

이력사항
  • (현) 대기업 금융회사 데이터분석팀 분석가
  • 위키독스 ‘딥 러닝을 이용한 자연어 처리’ 공동 저자
프로젝트
  • 빅 데이터 분석 시스템 “비정형 데이터 분석 모듈” 개발
  • 유명 보안 기업 프로젝트 “고객 응대를 위한 AI 챗봇” 개발
  • 유명 반도체 기업 프로젝트, “비정형 로그 데이터 군집 시스템” 개발
  • 유명 반도체 기업 텍스트 마이닝 프로젝트 자문
  • K 기업 딥 러닝 자연어 처리 사외 강의

1. 강의에서는 주로 어떤 내용을 다룰 예정이시고, 어떤 형태로 진행되나요?

딥 러닝 프레임워크인 텐서플로와 케라스를 사용하여 자연어 처리의 주요 기술들을 배울 예정입니다.
강의 구성은 이론 설명과 해당 이론을 적용해보는 실습으로 구성되어 있습니다.
텐서플로 기초, 자연어 처리 개요, 단어 임베딩, 텍스트 분류, 챗봇 만들기까지 각 파트는 수강생이 초심자라는 가정 하에 밑바닥 기초와 실습 코드 설명을 1:1 비율로 제공합니다.

2. 본 강의에서 배운 내용을 수강생 분들이 어떻게 활용할 수 있을까요?

- 텍스트 데이터에서 주소, 상품 이름 등 원하는 특정 엔티티(entity)들을 추출하고 싶어하는 A기업
- 고객의 일상 언어 질의에 대답을 할 수 있는 챗봇 구현을 원하는 B 기업
- 정리되지 않은 상담원의 상담 이력 데이터의 유형이나 감성 분류를 원하는 C기업

딥 러닝 자연어 처리는 특정 분야에만 적용되는 것이 아니라 제조, 금융, 식품, 물류, IT 등 다양한 도메인에서 모두 적용할 수 있는 기술입니다.
본 과정의 실습 내용을 통해 본인의 분야에서 안고 있는 고민들을 해결할 수 있는 인사이트와 기술력을 얻는 것에 활용할 수 있습니다.

3. 다른 강의와 어떤 차별 점이 있나요?

AI 분야는 비전, 추천, 강화학습 등 범위가 너무 다양해서 딥 러닝 강의를 하나 들었다고 자연어 처리를 할 수 있는 것이 아닙니다.
자연어 처리를 위해서는 결국 자연어 처리만을 위한 공부가 필요합니다.
본 강의는 자연어 처리라는 분야만을 파고들고, 이론적 지식에 대한 이해를 바탕으로 결과가 바로 보이는 실습에 초점을 둡니다.
이 강의의 궁극적인 목표는 수강생들의 실무 적용입니다.

4. 마지막으로 수강생들에게 하고 싶으신 말이 있나요?

2010년 후반에 들어 딥 러닝(Deep Learning) 자연어 처리 기술이 다양한 분야에서 가시적인 성과들을 이뤄내고 있습니다.
현재 자연어 처리 기술의 발전은 이 순간 가장 빠르게 발전하고 있고, 입문하여 비즈니스에서 빠른 성과를 얻기에도 지금이 가장 적합한 때입니다.
이번 강의를 통해 막연했던 자연어 처리에 대한 지식과 자신감을 얻어가기를 바랍니다.

커리큘럼 (76)

  • SECTION 1. 자연어 처리를 위한 전처리

    02:07:39

    1-1. 강의 들어가기

    00:07:36

    1-2. Text Preprocessing for NLP

    00:00:53

    1-3. Tokenization (eng)

    00:07:14

    1-4. Tokenization (kor)

    00:12:21

    1-5. Clearning and Norm

    00:08:37

    1-6. Colab 실습 (1)

    00:27:06

    1-7. 텍스트의 수치화

    00:12:44

    1-8. Colab 실습 (2)

    00:32:40

    1-9. Language Model

    00:18:28
  • SECTION 2. Tensorflow를 이용한 신경망 (Neural Network) 구현하기

    02:24:50

    2-1. Text Preprocessing 복습

    00:08:49

    2-2. Vectorization

    00:14:58

    2-3. TF-IDF

    00:25:15

    2-4. 케라스와 신경망 - 훑어보기

    00:02:03

    2-5. Linear Regression

    00:31:15

    2-6. Linear Regression 실습

    00:14:06

    2-7. Keras 이해하기

    00:06:54

    2-8. Logistic Regression

    00:23:25

    2-9. Keras를 이용한 모델링의 이해

    00:08:05

    2-10. Softmax Regression

    00:10:00
  • SECTION 3. 기계가 단어를 이해하는 방법 : 워드 임베딩 (Word Embedding)

    02:23:30

    3-1. Linear Regression 복습

    00:15:59

    3-2. Softmax Regression 복습 및 추가 설명

    00:21:21

    3-3. Word Embedding

    00:10:46

    3-4. Word2Vec

    00:37:36

    3-5. Word2Vec 실습

    00:07:29

    3-6. FastText

    00:25:24

    3-7. GloVe

    00:10:30

    3-8. Embedding layer vs Pretrained Embedding

    00:14:25
  • SECTION 4. 순환 신경망(RNN)과 1차원 합성곱 신경망(1D CNN)

    01:59:45

    4-1. Text Classification

    00:14:28

    4-2. Recurrent Neural Network (1)

    00:12:12

    4-3. Recurrent Neural Network (2)

    00:24:07

    4-4. Recurrent Neural Network (3)

    00:15:38

    4-5. Recurrent Neural Network 실습 (1)

    00:15:26

    4-6. Recurrent Neural Network 실습 (2)

    00:10:45

    4-7. Convolutional Neural Network

    00:15:32

    4-8. Convolutional Neural Network 실습

    00:11:37
  • SECTION 5. 딥러닝을 이용한 챗봇(Chatbot with Deep Learning)

    02:16:07

    5-1. Chatbot

    00:08:09

    5-2. Pre-trained Word Embedding

    00:04:15

    5-3. 1D CNN

    00:15:19

    5-4. RNN

    00:07:51

    5-5. RNN CNN 추가 실습

    00:22:21

    5-6. Named Entity Recognition (1) - Sequence Labelling, BIO Tagging

    00:17:32

    5-7. Named Entity Recognition (2) - Sequence Labelling, BIO Tagging

    00:11:39

    5-8. F1-SCORE, Confusion Matrix

    00:34:09

    5-9. Intent Classification

    00:14:52
  • SECTION 6. 기계 번역과 챗봇을 위한 구현 방법 : Sequence to Sequence

    02:07:12

    6-1. Natural Language Generation

    00:17:33

    6-2. Sequence-to-Sequence

    00:17:13

    6-3. Beam Search

    00:11:32

    6-4. Subword Tokenization (1) - OOV, Byte Pair Encoding

    00:16:24

    6-5. Subword Tokenization (2) - OOV, Byte Pair Encoding

    00:16:56

    6-6. BLEU, Unigram Precision, N-gram Precision (1)

    00:10:41

    6-7. BLEU, Unigram Precision, N-gram Precision (2)

    00:13:14

    6-8. Sequence-to-Sequence 실습

    00:23:39
  • SECTION 7. 어텐션 메커니즘(Attention Mechanism)

    02:01:14

    7-1. Attention Mechanism

    00:08:07

    7-2. Sequence-to-Sequence

    00:10:49

    7-3. Seq2Seq + Attention (1)

    00:18:48

    7-4. Seq2Seq + Attention (2)

    00:18:11

    7-5. Text Classification Using Attention (1)

    00:12:31

    7-6. Text Classification Using Attention (2)

    00:12:58

    7-7. Transformer

    00:16:42

    7-8. Self-Attention

    00:23:08
  • SECTION 8. 트랜스포머(Transformer)와 버트(BERT)

    03:26:55

    8-1. Transformer

    00:04:02

    8-2. Transformer Encoder (1)

    00:12:46

    8-3. Transformer Encoder (2)

    00:13:23

    8-4. Transformer Decoder

    00:10:33

    8-5. ELMo

    00:14:27

    8-6. Pretraining in NLP

    00:09:29

    8-7. BERT

    00:21:14

    8-8. BERT를 이용한 텍스트 분류 실습

    00:30:11

    8-9. BERT를 이용한 객체명 인식 실습

    00:20:42

    8-10. BERT를 이용한 Question Answering 실습

    00:10:11

    8-11. Question answering 실습 추가 설명 (1)

    00:07:34

    8-12. Question answering 실습 추가 설명 (2)

    00:13:49

    8-13. Question answering 실습 추가 설명 (3)

    00:08:11

    8-14. 다음 문장 예측 (1)

    00:08:32

    8-15. 다음 문장 예측 (2)

    00:07:28

    8-16. 마스크드 언어 모델

    00:14:23

커리어 성장으로 가는 길, 러닝스푼즈와 함께 하세요!

지금 보고 계시는 강의의 관련 태그로 다른 강의도 찾아보세요.

온라인

Tensorflow를 활용한 자연어처리 실전 : 리뷰 감성 분류, 챗봇 구현, 최신 모델까지

강의찾기