ツイートのキーワード分析で話題のネタをざっと見る
はじめに
今回も【Qiita x COTOHA APIプレゼント企画】COTOHA APIで、テキスト解析をしてみよう!に関連して投稿してみます。COTOHA APIとは何か?については、公式のページからご確認ください。
前回こんな記事を書いてMATLABからCOTOHA APIを触れるようになったので、今日はキーワード抽出のAPIを試してみたいと思います。今日は火曜日...Netflixでテラスハウスが更新される日...ということで、テラスハウスという単語をキーワードにしてツイートをざっと見てみます。今日も良い回でしたね。ネタバレしたくない人は以下閲覧されませんように。。
環境
MATLAB R2019b
Text Analytics Toolbox
Datafeed Toolbox
やったこと
ざっと以下の3ステップを実施しました。1つずつ記載していきます。
①ツイートの取得
②キーワード抽出
③キーワードに関連するツイートの可視化
①ツイートの取得
Twitter developerアカウントの作成
まずは@kngsym2018様のTwitter API 登録 (アカウント申請方法) から承認されるまでの手順まとめ ※2019年8月時点の情報という記事を参考にTwitterのDeveloperアカウントを作成しました。
API key、API secret key、Access token、Access token secretの4種類を入手できれば準備完了です。
ツイートの取得
Datafeed ToolboxにTwitter用の関数があるようなのでそちらを使います。コードは下記。API key、API secret key、Access token、Access token secretには自身のものを入れましょう。
consumerkey = 'input_your_consumerkey';
consumersecret = 'input_your_consumersecret ';
accesstoken = 'input_your_accesstoken';
accesstokensecret = 'input_your_accesstokensecret ';
c = twitter(consumerkey,consumersecret,accesstoken,accesstokensecret)
tweetquery = 'テラスハウス'; % 検索したいキーワードを入力
parameters.count = 100; % 取得するツイート数
d = search(c,tweetquery,parameters);
ssize = length(d.Body.Data.statuses);
for ii = 1:ssize
tw{ii,1} = d.Body.Data.statuses{ii,1}.text;
end
上のコードにもコメントを入れてますが、tweetqueryに「テラスハウス」と入れてみました。どんなツイートが取得できたでしょうか。試しに上から5つを表示させてみます。(ユーザー名は後からぼかしてます)→追記:勝手に引用するのが気が引けたので消しました。
>> tw(1:5,:)
ans =
5×1 の cell 配列
{'ここに結果を書いてました'}
{''}
{''}
{''}
{''}
}
それっぽいツイートが取れていますね。
②キーワード抽出
では、上で取得したツイートを、COTOHAのキーワード抽出APIに入れてみましょう。コードは下記。取得した100個のツイート全てを丸ごとAPIに投げています。
clientid = 'input_your_Client_ID';
clientsecret = 'input_your_Client_secret';
url = 'https://api.ce-cotoha.com/v1/oauth/accesstokens';
options = weboptions('RequestMethod','post', 'MediaType','application/json');
Body = struct('grantType', 'client_credentials', ...
'clientId', clientid, ...
'clientSecret', clientsecret);
response = webwrite(url, Body, options);
accesstoken = response.access_token;
tweets = char(tw);
baseurl = 'https://api.ce-cotoha.com/api/dev/';
Header = {'Content-Type', 'application/json;charset=UTF-8'; 'Authorization', ['Bearer ' accesstoken]};
Body = struct('document', tweets, ...
'max_keyword_num', 10);
options = weboptions('RequestMethod','post', 'MediaType','application/json','HeaderFields', Header, 'Timeout',10);
response2 = webwrite([baseurl 'nlp/v1/keyword'], Body, options);
すると、response2のresultにはこんな結果が入っていました。「テラスハウス」で検索したから、キーワードもテラスハウスが上位に...そりゃそうですね。
上記のキーワード・スコアを棒グラフで可視化させてみるとこんな感じになりました。コードも下に載せています。
keywordtable = struct2cell(response2.result);
bar(categorical(keywordtable(1,:)),cell2mat(keywordtable(2,:)));
jptime = datetime(d.Header(1,8).Value, 'Format', 'eee, dd MMM yyyy HH:mm:ss z', 'Locale', 'en_US', 'TimeZone', 'Asia/Tokyo'); % 日時を日本時間に変換
title(char(jptime))
③キーワードに関連するツイートの可視化
COTOHA APIでキーワードを抽出してみましたが、それぞれのキーワードを含むツイートで何が話されていたのか気になるので、取得してきた全ツイート(変数tw)を解析してみます。
まずは、それぞれのキーワードを含むツイートのインデックスを取得します。TFには0か1かの情報が入っています。
for ii = 1:size(keywordtable,2)
TF(ii,:) = contains(tw,keywordtable(1,ii));
end
次に、それぞれのキーワードを含むツイートをwordcloudで可視化させてみます。ただし、単純に可視化させると句読点だったり、「は」「が」のような副詞が一番多くなったりするので、Text Analytics Toolboxのテキストクリーニング関数を複数駆使して前処理を行ってから可視化させました。ところどころTwitterアカウントが表示されたので黒塗りにしています。
YOUさんの着てる服が好みだったのでしょうか。また、メンバーの卒業や、新メンバーについても話題になっているようですね。
表示は以下のコードで行いました。
figure;
for ii = 1:size(keywordtable,2)
subplot(2,5,ii)
documents = tokenizedDocument(tw(TF(ii,:),:));
newDocuments = removeStopWords(documents);
newDocuments = erasePunctuation(newDocuments);
newDocuments = removeWords(newDocuments,["RT" "テラス" "ハウス"]); % 任意のワードの除去
wordcloud(newDocuments);
title(keywordtable(1,ii))
end
個人的には、えみかちゃんたちのあの幸せなシーンについてもっと盛り上がっていると思ったのですが。。
来週の火曜日はまた違う図が作成されるでしょうね。楽しみ。
おわりに
「コロナ」「新型」でも同様のことを試してみたところ、こんな感じの結果でした。新型コロナウイルスと新型コロナウィルスが別ものとしてスコアリングされていますね。この辺の表記ゆれに対しての処理は未対応なのかしら。(最近出た言葉ですしね。)
表記ゆれの処理については私も勉強中なので、COTOHA APIには今後も目が離せません!
Author And Source
この問題について(ツイートのキーワード分析で話題のネタをざっと見る), 我々は、より多くの情報をここで見つけました https://qiita.com/aoimidori/items/e4fdcfa29d8822bea6f5著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .