[HD]쉽게 배우는 텍스트 마이닝(Text Mining) Part.2 영어를 위한 NLTK 1

텍스트마이닝

[HD]쉽게 배우는 텍스트 마이닝(Text Mining) Part.2 영어를 위한 NLTK 1

김동준
강의구성 20강
제작년도 2020년
강좌개요
본 과정은 영어 텍스트마이닝을 위한 NLTK 패키지에 대한 학습과정입니다. 영어 텍스트마이닝 및 텍스트분석을 위해서는 다양한 라이브러리와 패키지들이 있는데 그중에서 가장 많이 사용되고 있는 NLTK 패키지에 기반하여 영어를 분석하고 관련된 라이브러리를 학습하는 과정입니다.
학습대상
1. 영어 자연어 처리 및 NTLK 패키지 학습에 부담을 가지는 학습자 2. 빠른 시간에 NLTK 패키지 및 관련 라이브러리를 배우고자 하는 자.
학습목표
NLTK 패키지를 이용한 자연어 처리에 대해 전반적인 내용을 학습하고 그에 기반하여 영어를 분석할 수 있도록 목표한다.
참고사항
  • 수강 기간 중 언제든지 반복 수강이 가능합니다.
  • 수강 여부 체크는 현재 동영상 강좌에만 가능합니다. (증빙 서류 발급은 준비중입니다.)
  • 수강 신청 완료 후 수강 가능합니다.
커리큘럼
차시 강의제목 수강여부
01 강의개요 및 권장 학습순서와 NLTK 설치하기[15:48]
02 corpus(말뭉치)란 무엇인가[12:06]
03 nltk gutenberg corpus 다운로드 및 텍스트 내용 출력하기[21:45]
04 nltk gutenberg corpus 여러가지 값 출력[18:54]
05 nltk tokenization - sent_tokenize[16:20]
06 word_tokeniz() 함수를 사용한 토큰화 vs gutenberg.words() 함수를 사용한 토큰화 비교[21:25]
07 각 토큰당 평균 문자 수[12:53]
08 브라운 코퍼스를 활용한 여러가지 메서드(1)[20:07]
09 브라운 코퍼스를 활용한 여러가지 메서드(2) 및 FreqDist 함수 사용법[25:00]
10 FreqDist() 함수로 단어 빈도 수 체크시 대소문자 문제[22:58]
11 특정 단어의 빈도 수 체크[13:45]
12 특정 단어의 빈도 수 체크 - list comprehension 사용[13:46]
13 세익스피어는 비극 햄릿을 쓸 때 한 문장당 평균 몇개의 단어를 사용해서 썼을까 - 기초학습[19:53]
14 전부 소문자로 바꾼 후 중복되는 것 없이 단어 수 체크[29:31]
15 세익스피어는 비극 햄릿을 쓸 때 한 문장당 평균 몇개의 단어를 사용해서 썼을까 - 최종 통계 구하기[16:36]
16 브라운 코퍼스 장르별 원하는 단어 수 세기 - ConditionalFreqDist() 사용법[30:06]
17 cfd 출력시 pair로 구성해서 출력하기[12:08]
18 브라운 코퍼스 카테고리별 단어 수 체크시 배열 변수 만들어서 이중 for문으로 구성하기[10:19]
19 n-gram이란 무엇이고 bigram, trigram 등이 검색 예측에 어떻게 활용되어지는가[33:15]
20 nltk 패키지내 ngrams를 활용하여 bigram, trigram 구하기 실습[18:29]