トランスフォーマーバート-神話を解く:10行のコードの中で再生と展開


バートは素晴らしいモデルと遊ぶことです.それは文の中に行方不明の単語を推論することができます.
記事では、Google T 5モデルをREST APIサービスとして展開します.海千山千?私はあなたに言うだろう:あなただけのコードの6行を書く必要がありますか?

Pinferenciaは、それがちょうど3つの余分の線でどんなモデルでもサーブするのがとても簡単にします.
HuggingFaceは、ちょうどいくつかの線で訓練されたモデルを使いやすくします.

依存関係のインストール


ハギンフェース


pip install "transformers[pytorch]"
それが働かないならば、Installation (huggingface.co)を訪問して、彼らの公式文書をチェックしてください.

ピンフェルニア


pip install "pinferencia[uvicorn]"
それが働かないならば、Install — Pinferencia (underneathall.app)を訪問して、彼らの公式文書をチェックしてください.

サービス定義


まず、アプリを作成しましょう.サービスを定義するPy :
< div >

サービスを開始する


クラスをハイライト表示する
    uvicorn app:service --reload
< div >
< p >モデルがダウンロードされるのを待ちます.終了したら、< tt/を表示します.
<堀田>

サービスを呼び出す


< tt > Pinferencia .から/インタラクティブなAPIページを使用できます.p >

カール


<堀田>
結果: < P >
<堀田>
最高のスコアを持つ文は:ペンギンは飛ぶことができません.正しい意味を持ちますかp >
curl以外にも、 を使うことができます.

インタラクティブAPIページ


<堀田>
<堀田>