027-02
をテンプレートにして作成
開始行:
[[第27回研究会>027]]
* 金融文書を用いた事前学習言語モデルの構築と検証 [#j8aa75...
** 著者 [#u371c43e]
鈴木雅弘, 坂地泰紀, 平野正徳, 和泉潔(東京大学)
**概要 [#n0cf3458]
BERTを始めとする事前学習言語モデルは、様々な自然言語処理...
**キーワード [#a5d13c48]
事前学習モデル, 自然言語処理, BERT
**論文 [#i8f802c4]
//(10月6日以降に公表いたします)
&ref(02_SIG-FIN-27.pdf);
終了行:
[[第27回研究会>027]]
* 金融文書を用いた事前学習言語モデルの構築と検証 [#j8aa75...
** 著者 [#u371c43e]
鈴木雅弘, 坂地泰紀, 平野正徳, 和泉潔(東京大学)
**概要 [#n0cf3458]
BERTを始めとする事前学習言語モデルは、様々な自然言語処理...
**キーワード [#a5d13c48]
事前学習モデル, 自然言語処理, BERT
**論文 [#i8f802c4]
//(10月6日以降に公表いたします)
&ref(02_SIG-FIN-27.pdf);
ページ名: