python言語実行でValueError:empty vocabulary;perhaps the documents only contain stop words

1451 ワード

私が実行しているコードはhttps://github.com/sunxiangguo/chinese_text_classificationああ、pythonは3.9で、pycharmは2020.3です.3.
トレーニングセットとテストセットはすべて持参して、それから自分で2つのフォルダを作成して分詞が終わった後のテキストを保存して、それからTF-IFを実行する時以下のエラーが発生しました
C:/Users/qianyz/Downloads/chinese_text_classification-master/TFIDF_space.py
Traceback (most recent call last):
  File "C:\Users\qianyz\Downloads\chinese_text_classification-master\TFIDF_space.py", line 41, in 
    vector_space(stopword_path, bunch_path, space_path)
  File "C:\Users\qianyz\Downloads\chinese_text_classification-master\TFIDF_space.py", line 30, in vector_space
    tfidfspace.tdm = vectorizer.fit_transform(bunch.contents)
  File "C:\Users\qianyz\venv\Lib\site-packages\sklearn\feature_extraction\text.py", line 1849, in fit_transform
    X = super().fit_transform(raw_documents)
  File "C:\Users\qianyz\venv\Lib\site-packages\sklearn\feature_extraction\text.py", line 1203, in fit_transform
    vocabulary, X = self._count_vocab(raw_documents,self.fixed_vocabulary_)
  File "C:\Users\qianyz\venv\Lib\site-packages\sklearn\feature_extraction\text.py", line 1134, in _count_vocab
    raise ValueError("empty vocabulary; perhaps the documents only"
ValueError: empty vocabulary; perhaps the documents only contain stop words

     ,      1

私は多くのネットとブログの上の解決方法を見て、analyzerのデータを修正してwordとcharになったことがあって、しかしやはり同じ間違いを報告して、各位の大物に解答してもらって、感謝に堪えません