信頼性が求められるAIプロダクトをリリースする際には、事前に悪質な入力に対する耐性や倫理的な観点についての検証が必要です。様々な組織でAIの信頼性やAI倫理の重要性がうたわれている一方で、具体的な検証項目および検証ツールの整備は業界全体の課題です。
本発表では、LINEのAIプロダクトを対象とした信頼性検証の項目の選定と検証ツールの開発に関して、主に言語モデルを題材とした取り組みについてご紹介します。信頼性の検証項目は各国・各社のレポートを参考に策定し、検証ツールとして敵対的な機械学習によるストレステストを開発しました。公平性や有害性、プライバシー等の多様な観点でAIの信頼性を可視化できる点、および、敵対的学習によって効率的にAIに入力するテストケースを生成できる点が特徴です。
AI倫理や信頼性にご興味ある方からこれから勉強したいという方まで、幅広く参考となる内容です。是非ご参加ください。