NLP4J [006-033] NLP4J で言語処理100本ノック #33 サ変名詞
やってみます。
33. サ変名詞
サ変接続の名詞をすべて抽出せよ.
Maven
サ変接続の名詞をすべて抽出せよ.
現在開発中のバージョンを利用します。
<dependency>
<groupId>org.nlp4j</groupId>
<artifactId>nlp4j-core</artifactId>
<version>1.1.1.0-SNAPSHOT</version>
</dependency>
Text Data
デフォルトで利用している形態素解析(Yahoo! Japan デベロッパーネットワーク 日本語形態素解析) では、リクエストサイズの上限が900KBであり、回数に制限もあるので小さなサイズのテキストファイルを利用しています。
一
吾輩は猫である。
名前はまだ無い。
どこで生れたかとんと見当がつかぬ。
何でも薄暗いじめじめした所でニャーニャー泣いていた事だけは記憶している。
吾輩はここで始めて人間というものを見た。
しかもあとで聞くとそれは書生という人間中で一番獰悪な種族であったそうだ。
この書生というのは時々我々を捕えて煮て食うという話である。
しかしその当時は何という考もなかったから別段恐しいとも思わなかった。
ただ彼の掌に載せられてスーと持ち上げられた時何だかフワフワした感じがあったばかりである。
掌の上で少し落ちついて書生の顔を見たのがいわゆる人間というものの見始であろう。
この時妙なものだと思った感じが今でも残っている。
第一毛をもって装飾されべきはずの顔がつるつるしてまるで薬缶だ。
その後猫にもだいぶ逢ったがこんな片輪には一度も出会わした事がない。
のみならず顔の真中があまりに突起している。
そうしてその穴の中から時々ぷうぷうと煙を吹く。
どうも咽せぽくて実に弱った。
これが人間の飲む煙草というものである事はようやくこの頃知った。
Java Code
package nlp4j.nokku.chap4;
import java.util.List;
import nlp4j.Document;
import nlp4j.DocumentAnnotator;
import nlp4j.DocumentAnnotatorPipeline;
import nlp4j.Keyword;
import nlp4j.crawler.Crawler;
import nlp4j.crawler.TextFileLineSeparatedCrawler;
import nlp4j.impl.DefaultDocumentAnnotatorPipeline;
import nlp4j.index.DocumentIndex;
import nlp4j.index.SimpleDocumentIndex;
import nlp4j.yhoo_jp.YJpMaAnnotator;
public class Nokku31 {
public static void main(String[] args) throws Exception {
// NLP4Jが提供するテキストファイルのクローラーを利用する
Crawler crawler = new TextFileLineSeparatedCrawler();
crawler.setProperty("file", "src/test/resources/nlp4j.crawler/neko_short_utf8.txt");
crawler.setProperty("encoding", "UTF-8");
crawler.setProperty("target", "text");
// ドキュメントのクロール
List<Document> docs = crawler.crawlDocuments();
// NLPパイプライン(複数の処理をパイプラインとして連結することで処理する)の定義
DocumentAnnotatorPipeline pipeline = new DefaultDocumentAnnotatorPipeline();
{
// Yahoo! Japan の形態素解析APIを利用するアノテーター
DocumentAnnotator annotator = new YJpMaAnnotator();
pipeline.add(annotator);
}
// アノテーション処理の実行
pipeline.annotate(docs);
// キーワードをカウントするためにDocumentIndexを利用します。
SimpleDocumentIndex index = new SimpleDocumentIndex();
// ドキュメントの追加
index.addDocuments(docs);
List<Keyword> kwds = index.getKeywordsWithoutCount();
String meishi = null;
// かっこいいやり方ではないが、今回は単純に名詞+するを探すとする。
for (Keyword kwd : kwds) {
if (kwd.getFacet().equals("名詞")) {
meishi = kwd.getLex();
} //
else if (meishi != null && kwd.getLex().equals("する")) {
System.err.println(meishi + kwd.getLex());
meishi = null;
} //
else {
meishi = null;
}
}
}
}
結果
記憶する
装飾する
突起する
所感
package nlp4j.nokku.chap4;
import java.util.List;
import nlp4j.Document;
import nlp4j.DocumentAnnotator;
import nlp4j.DocumentAnnotatorPipeline;
import nlp4j.Keyword;
import nlp4j.crawler.Crawler;
import nlp4j.crawler.TextFileLineSeparatedCrawler;
import nlp4j.impl.DefaultDocumentAnnotatorPipeline;
import nlp4j.index.DocumentIndex;
import nlp4j.index.SimpleDocumentIndex;
import nlp4j.yhoo_jp.YJpMaAnnotator;
public class Nokku31 {
public static void main(String[] args) throws Exception {
// NLP4Jが提供するテキストファイルのクローラーを利用する
Crawler crawler = new TextFileLineSeparatedCrawler();
crawler.setProperty("file", "src/test/resources/nlp4j.crawler/neko_short_utf8.txt");
crawler.setProperty("encoding", "UTF-8");
crawler.setProperty("target", "text");
// ドキュメントのクロール
List<Document> docs = crawler.crawlDocuments();
// NLPパイプライン(複数の処理をパイプラインとして連結することで処理する)の定義
DocumentAnnotatorPipeline pipeline = new DefaultDocumentAnnotatorPipeline();
{
// Yahoo! Japan の形態素解析APIを利用するアノテーター
DocumentAnnotator annotator = new YJpMaAnnotator();
pipeline.add(annotator);
}
// アノテーション処理の実行
pipeline.annotate(docs);
// キーワードをカウントするためにDocumentIndexを利用します。
SimpleDocumentIndex index = new SimpleDocumentIndex();
// ドキュメントの追加
index.addDocuments(docs);
List<Keyword> kwds = index.getKeywordsWithoutCount();
String meishi = null;
// かっこいいやり方ではないが、今回は単純に名詞+するを探すとする。
for (Keyword kwd : kwds) {
if (kwd.getFacet().equals("名詞")) {
meishi = kwd.getLex();
} //
else if (meishi != null && kwd.getLex().equals("する")) {
System.err.println(meishi + kwd.getLex());
meishi = null;
} //
else {
meishi = null;
}
}
}
}
記憶する
装飾する
突起する
所感
サ変動詞でなくてサ変名詞なのですね。
まとめ
NLP4J を使うと、Javaで簡単に自然言語処理ができますね!
プロジェクトURL
Author And Source
この問題について(NLP4J [006-033] NLP4J で言語処理100本ノック #33 サ変名詞), 我々は、より多くの情報をここで見つけました https://qiita.com/oyahiroki/items/f6e45a0de0fd8d78a7a8著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .