はじめに 前回は、Googleが発表したpre-trainedの汎用言語表現モデルであるBERTについて、自然言語処理分野の背景も交えてご紹介しました。 第二回となるこの記事では、BERTを実際のタスクに使用し、その性能…
Read More投稿者: Matsushita Ryosuke
配属以降、自然言語処理を中心として機械学習について取り組んできました。自然言語処理のポテンシャルに、大きな期待を抱いています。
現在の目標は、kaggleでメダルを取ること。
未来を創造するITのミソ
はじめに 前回は、Googleが発表したpre-trainedの汎用言語表現モデルであるBERTについて、自然言語処理分野の背景も交えてご紹介しました。 第二回となるこの記事では、BERTを実際のタスクに使用し、その性能…
Read More