本記事では、最近注目されている「AI TRiSM」の概念について、そのエッセンスをまとめてみました。関連する文献の考察はこちらです。

AI TRiSMの概要
AI TRiSMが注目を浴び始めた2023年は、生成AIがビジネスに盛んに活用され始めた年でもあります。生成AIに関する研究はどうしても技術的な面に集中しがちで、生成AIがビジネスや社会にもたらしうる諸問題に関しては研究がまだ不足しています。
生成AIをビジネスに導入する企業が増えている中、生成AIを業務に導入し運用する際のリスクについて正しくアセスメントを行い、ロバストな管理体制を整えることが必要です。
AI活用にともなうリスクは様々なものがあります。その中で一般的なAIに関するリスクと、近年盛んになってきた生成AI特有のリスクがあります。生成AI特有のリスクをアセスメントが不十分な状態で導入することで、ビジネスに悪影響をもたらすことがあります。
リスクを生成AIのユーザーの観点から考えるだけではなく、企業で生成AIを使ったサービスを開発し、提供する側になる場合は特に要注意です。例えば、生成AIが外部のデータから情報のパターンや関係性を学習し、それに基づき新たにコンテンツを生成します。そのコンテンツを企業の顧客へサービスとして提供し、それが正確性や公平性を欠ける場合、企業の社会的なイメージを損失し、さらには訴訟問題に発展するかもしれません。
個人情報の問題、倫理の問題、著作権の問題、義情報の拡散、悪用の問題、様々あります。過去のよくある事例としては、自社技術やクライアントに関する機密情報を生成AIに入力し、その機密情報が漏洩したケース、そしてユーザーの会話から学習をしていたチャットボットが人種差別的な発言をしてしまったケースが挙げられます。
(参考)Gartner®社の2023年10月のプレスリリース
AI TRiSMの4つの柱
AI TRiSMのフレームワークは、①モデルの説明可能性 ②ModelOps ③AIアプリケーションセキュリティ ④プライバシー という4つの主要要素で構成されています。
AIの活用に伴うリスクを把握した上で、AIの開発者、提供事業者、規制当局、ユーザーなどの意見によって、これらのリスクをなるべく満遍なくカバーできるように決められた4つの要素です。
■説明可能性
説明可能性は、AIが判断に至った根拠、経緯、プロセスを人間が理解できるように透明性を持たせることを指しています。誰にも分かりやすいように可視化して初めてAIによる判断の信頼性が得られます。
透明性に欠けるモデルは「ブラックボックス」モデルとも呼ばれ、名前の通り入力と出力しかわからない事態になります。利用者の健康安全や個人情報に関与する AIサービスでは、ブラックボックス問題は特に深刻です。
判断の根拠、つまり「なぜそのような予測・判断をしたのか」を説明できていないと、AIモデルをアプリケーションとして実社会に実装した際に、その利用者が不安を感じてしまい、AI全般への不信感にも繋がります。例えば、医療分野のAIによる診断の結果、「腫瘍は悪性ですが、AIがそう判断した根拠は解明できません」と言われたら患者は納得することが難しいでしょう。他に、ローンの審査、奨学金の審査におけるAIによるスコアリング、災害リスクの予測なども、判断の根拠を説明することが特に重要な例です。
最新のアルゴリズムは精度が高くても、透明性も高いとは限りません。実際、ニューラルネットワークなどの高精度なモデルの多くは、その複雑な仕組みが十分に理解されておらず、予測の根拠や結果を説明することが難しいのです。近年、AIモデルの説明可能性を高めるためのツール(例:Explainable AI; 説明可能 AI)の研究開発が進められています。
説明可能なAIモデルには、公平性といった倫理的な問題を防止する効果もあります。一部の生成AIの基盤となる大規模言語モデル(LLM)の例を用いて説明します。自然言語処理モデルは人間が生み出したテキストをデータとして学習するため、どうしても人間社会に潜むバイアスの影響を受けやすくなります。性別、人種、宗教などのセンシティブ属性は予測結果の公平性に影響を及ぼす可能性があります。例えば、文章生成AIの場合、「女性」という単語から生成された文には「美しい」や「華やか」などフェミニンな単語が現れやすい。また、共起する単語の感情スコアを検証したところ、「黒人」は「犯罪」などのネガティブな表現と共起しやすく、「イスラム教」は「テロリズム」と共起しやすい、という許しがたい結果が出ています。このように、特定のグループにとって不利な結果を出力してしますようなモデルを実世界で運用した際に深刻な問題をもたらします。
このとき、モデルの予測の根拠や各特徴量の寄与、特徴量間の相関関係などを説明できれば、公平性を担保するための対策が可能になります。例えば、LLMの訓練データを収集する際に、なるべく多様性を持たせるまたはバイアスの要因となる要素をあらかじめ除外することが考えられます。
■ModelOps
ModelOps(Model Operationalization)とは、AIモデルの開発、デプロイメント、運用に関するプロセスを最適化し、効率的に管理するための考え方や手法を指します。モデルのライフサイクルとガバナンスに重点を置き、研究者が開発したAIモデルをできるだけ短期間でスムーズにビジネス環境へ適用することを目指します。
具体的には、AIモデルを実稼働環境に導入し、評価と改善を繰り返すことで、継続的に性能を向上させるサイクルを構築します。このプロセスを導入することで、運用コストや時間を削減し、効率的かつ信頼性の高いAIシステムを実現できます。
現場では新たなデータが次々と生まれます。例えば、売上予測モデルを導入した後でも、消費者の購買傾向が流行、キャンペーン、季節などによって変化します。それに対して、AIモデルは開発時のデータのみを学習しているため、時間の経過とともに現実との乖離が生じ、運用に耐えられなくなります。そのため、AIモデルは開発後も継続的な更新と改善が必要です。ModelOpsの仕組みを取り入れることで、モデル運用時のズレを検知し、迅速に対応することで、モデルの性能維持に貢献します。
■AIアプリケーションのセキュリティ
AIアプリケーションの普及が進む中で、セキュリティ対策を確保することが重要な課題となっています。
AIシステムは大量のデータを処理し、学習することで高度な機能を提供します。その特性ゆえに、一般的なアプリケーションやITシステムとは異なる脅威や攻撃にさらされています。既存のITシステムに対するセキュリティの対策(例:サイバー攻撃やDoS攻撃の対策)を実施している企業は多いが、新たに導入するAIアプリケーションのリスク管理が満遍なくできているとは限りません。実際、Gartnerが実施した調査によると、欧米圏AIに関するセキュリティの侵害を経験している組織は41%もいることが分かっています。
AIアプリケーションのセキュリティを強化するには、開発・運用の各段階でリスクを考慮し、継続的な監視と更新を行うことが不可欠です。
まず、データのセキュリティの保護です。AIは学習データに依存するため、開発時の訓練データに悪質なデータや不正なデータが混入すると、モデルの誤学習やバイアスが発生する可能性があります。これを「データ汚染」と言います。これを防ぐためには、データの整合性を確保し、アクセス制限や暗号化を適用することが必要です。
これと似ているものに「敵対的攻撃(Adversarial Attacks)」のリスクがあります。これは、訓練データではなく、実運用の時の入力データへの攻撃です。AIモデルが誤った判断をするように細工されたデータを入力する攻撃手法で、画像認識や自然言語処理の分野で特に深刻です。これを防ぐためには、対策として堅牢な学習手法の導入や、異常検知システムの活用が求められます。
AIの中でも、生成AI特有のセキュリティの課題があります。
■プライバシー
AIは機密データも含む大量のデータを扱っているため、プライバシー保護は不可欠です。情報漏洩の防止、外部からの敵対攻撃、不正アクセス、盗難に対する耐性及び「データが改ざんされず欠損や不整合がない」という完全性の担保も重要です。フェデレーテッドラーニング(分散学習)などの手法を導入することで、データの安全性を向上させることが可能です。
生成AIに関していうと、プロンプトへの操作を通じて、学習データに含まれる機密情報がそのまま生成され、出力されてしまうことがあります。
「AI TRiSM」の導入
AI TRiSMを推進するためには、企業内に専門の組織を設置することが重要です。高度な技術的なスキルが必要であるため、企業内にそれらのスキルを持った人材の確保が必要です。ただし、技術的な問題解決だけでは不十分であるため、法務、コンプライアンス、セキュリティ、データ・アナリティクスのチームなど部門横断的な連携が重要となります。加えて、AI TRiSMの取り組みを組織全体で進めるための管理や調整を行うためのマネジメントができる人材も重要です。
以下はAI TRiSMに関して考慮すべきポイントの例です。
- AI導入の目的や利用シーン、使用するデータに合わせて、どのようなリスクが考えられるかを詳細に洗い出し、その対策を検討する
- AI TRiSMの実現に必要な技術要件を確認し、企業の技術環境に合わせたプラットフォームやツールを整備する
- 信頼性の高いデータの準備、適切な前処理、不正防止のためのアクセス制御、その他のセキュリティ強化
- モデルの構築とテストを行い、説明可能性を確保する、定期的にデータの更新とモデルの際訓練を行う、運用開始後に監視とメンテナンスを継続する
AI TRiSMを導入する企業は、AIをより戦略的、効果的、安全に活用できるようになることが期待されています。
執筆担当:ヤン ジャクリン (GRI分析官・講師)