このページは Cloud Translation API によって翻訳されました。 大規模言語モデル: 知識をテストする パスウェイに戻る 次のフレーズに含まれる 2 グラム(バイグラム)はいくつありますか。 they visited New York last week 3 4 5 6 大規模言語モデルのどの属性が、他の種類の言語モデルよりも優れた予測を行うのに役立っていますか。(該当するものをすべて選択してください) 正しいと思われる解答をすべて選択してください。 LLM にはさらに多くのパラメータが含まれています。 LLM はより多くのコンテキストをキャプチャします。 LLM をそれほど多くのデータでトレーニングする必要はない。 LLM はハルシネーションを起こすことはない。 正誤問題: Full Transformer はエンコーダとデコーダの両方で構成される。 True False LLM は、次の例を含む大規模なデータコーパスでトレーニングされます。 My cousin's new fashion line is so cool! この文章の「すごい」であることを LLM が学習するのに役立っているメカニズムは何ですか。「非常に良い」という意味です。衣服の温度のことではありませんか? プロンプト エンジニアリング デコーダ 蒸留 自己注意 ファインチューニングと抽出に関する以下の説明のうち、正しいものはどれですか。 ファインチューニングではモデルのパラメータ数が増加し、抽出ではモデルのパラメータ数が減少します。 一般に、ファインチューニングはモデルの予測の品質を高めるのに対し、抽出はモデルの予測の品質を低下させます。 ファインチューニングはテキストモデルに対して実行され、抽出は画像モデルに対して実行されます。 上記のいずれも該当しない。 解答を送信 error_outline テストの採点中にエラーが発生しました。もう一度お試しください。