Week 1-2
3216 ワード
NLU NLU:理解=文法的に正しいですか?意味(文の意味がわかりますか?) タスク実生活SOTAモデル構文(COLA)自動構文補正BILSTM,ROBERTA感性解析(SST)商品とサービスレビューデータ正逆判定BERT(ROBERTA)文類似性(STS,MRPC,QQP)類似ドキュメントクラスタBERT(MRI,RTE)推論(自動内部と会計検査T 5,BERT(ALBERT,DERTA)ターゲット推論(QWLI,QNLI,QNLI)要約パフォーマンスを向上させるために必要な「SpanBERT」、「ROBERTa」、「SQAD」検出システム「小型機T 5」、「BERT」、「XLNet」以外のタスク 分類:顧客予測、商品カテゴリ分類等から離脱する クラスタ化:類似製品クラスタ化、類似キーワード生成 GLUE、SQUADなどの公信力のあるNLU大会(韓国語版の大会もある) トランペットソース
参照先:データムデータセット
「ベンチマークデータセットは、汎用的な基準で人工知能の精度を測定し、競争する基礎です」
データムタイプ
GLUE「GLUE基準自然言語理解性能を評価するデータセット」 ニューヨーク大学、ワシントン大学、DeepMindなどの大学と協力し、ベンチマークテスト を構築 baseline : BiLSTM dataset single-sentence tasks CoLA (Corpus of Linguistic Acceptability) SST-2 (Stanford Sentiment Treebank) similarity and paraphrase tasks MRPC (Microsoft Research Paraphrase Corpus) QQP (Quora Question Pairs) STS-B (Semantic Textual Similarity Benchmark) inference tasks MNLI (Multi-Genre Natural Language Inference) MNLI_m, MNLI_mm QNLI (Question Natural Language Inference) RTE (Recognizing Textual Entailment) WNLI (Winograd Natural Language Inference) SuperGLUE GLUEベンチマークテスト公開後、1年後により難易度の高いSuperGLUEベンチマークテストを再取得
配置 baseline : BERT dataset (8) BoolQ (Boolean Questions) CB (CommitmentBank) COPA (Choice of Plausible Alternatives) MultiRC (Multi-Sentence Reading Comprehension) ReCoRD (Reading Comprehension with Commonsense Reasoning Dataset) RTE (Recognizing Textual Entailment) WiC (Word-in-Context) WSC (Winograd Schema Challenge) SQuAD SQuAD is "a reading comprehension dataset" 質問:Wikipediaの記事からの人々 答えられない質問は、オンラインの人々(非機械の真人)が直接 を生成する.士林が自ら手を出したが、機械は を認識しにくい.
回答:指紋のテキストまたはspan部分または答えを読んでいない可能性があります KLUE & KorQuAD「KLUE評価韓国語言語モデルの基準」 8技術
「KorQuadデータセットはLG CNS上に構築され公開されたもの」 韓国語言語モデル質疑応答性能基準試験 ソース
ソース
SQuADソース
GLUEデータセットソース
- 스닛펫(snippet): "특정 검색어에 대해 답이 되는 요약 정보 조각"
-> 검색어에 가장 정확하고 정리된 정보를 가진 글을 성정하여 최상단을 띄어주는
参照先:データムデータセット
「ベンチマークデータセットは、汎用的な基準で人工知能の精度を測定し、競争する基礎です」
データムタイプ
GLUE
配置
ソース
SQuADソース
GLUEデータセットソース
Reference
この問題について(Week 1-2), 我々は、より多くの情報をここで見つけました https://velog.io/@ayi4067/Week-1-2-NLUテキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol