Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 토픽모델링
- jvm.py
- gensim
- Python.h
- pandas
- ChromeDriverManager
- git bash
- pyLDAvis
- 나무자르기
- MariaDB
- pip install mariadb
- dataframe
- elastic search
- 백준
- Java
- 프로그래머스
- js
- bs4
- centos8
- Pythonic
- Jpype
- ELASTIC
- 완주하지못한선수
- rest api
- ShallowCopy
- tweepy
- dead lock
- 파이썬
- bulk post
- KONLPY
Archives
- Today
- Total
부리부리부리
[Python] gensim - LDA parameters 본문
LdaModel(corpus=None,
num_topics=100,
id2word=None,
distributed=False,
chunksize=2000, # 훈련 덩어리당 문서의 개수
passes=1, # 훈련 동안 말뭉치를 통과하는 횟수
update_every=1, # 업데이트당 반복해 읽는 문서의 개수
alpha='symmetric',
eta=None, # 단어 확률에 대한 사전 신뢰도
decay=0.5, # 새로운 문서가 조사될 때 망각하는 람다의 퍼센티지
offset=1.0, # 처음 몇 번 반복 시행의 속도 감소를 통제한다.
eval_every=10, # 로그 퍼플렉시티의 추정 빈도수(비용이 든다)
iterations=50, # 말뭉치를 읽는 반복시행의 최대수
gamma_threshold=0.001 # 지속하기 위한 감마의 최소 변화
minimum_probability=0.01 # 토픽을 필터하는 최소 확률
random_state=None,
ns_conf=None,
minimum_phi_value=0.01, # 단어 확률의 하한
per_word_topics=False, # 가장 큰 단어-토픽 확률을 계산
callbacks=None,
dtype=<class 'numpy.float32'="">
)
'언어 > Python' 카테고리의 다른 글
[pandas] DataFrame을 사용하는 이유 (2) | 2022.11.25 |
---|---|
[Python] pyLDAvis & gensim_models 오류 (0) | 2022.01.21 |
[Python] 회사 자동 출근 프로그램 (pyinstaller 이용) (0) | 2022.01.11 |
Anaconda 명령어 모음 (0) | 2022.01.11 |
[Python] module konlpy 관련 오류 해결 (0) | 2021.12.13 |