現在、GPT-3のような大規模言語モデルは、Scaling Lawにより100 Billion~1 Trillionパラメーターと、ますますそのサイズが増大しています。また、このようなトレンドは言語モデルだけでなく、画像や音声など様々な分野のモデルでもScaling Law が適用されています。しかし、このような大規模なMLモデルを学習するために必要な情報と技術が不足している状況です。
そこでこのセッションでは、大規模なMLモデル学習のための技術を詳しく説明いたします。また、現在私たちのチームで提供しているAI-Text filteringモデルを大規模 MLモデルで学習することで、パフォーマンスを向上した経験を共有したいと思います。