AIうぉ--!(ai-wo-katsuyo-shitai !)

AIを上手く使ってみせたい!!自分なりに。

2023-07-22から1日間の記事一覧

BERTは。何をデータとして事前学習しているのか?

答えが0秒で沢山えられます。。。。反省。 Wikipediaによると (両モデルとも、)Toronto BookCorpus[12](8億語)と、英語版Wikipedia(25億語)で事前訓練された。 引用元: https://ja.wikipedia.org/wiki/BERT_(%E8%A8%80%E8%AA%9E%E3%83%A2%E3%83%87%E3%8…