contact

お問い合わせ

ブログ | 2024年03月01日

責任あるAI:実装時の5原則

Table of Contents

労働力やスキルの不足に加えて、経済の混乱により、多くの組織は「品質、顧客体験、従業員体験を維持(または理想的には改善)しながら、業務を効率化する具体的な方策」を模索しています。こうしたギャップを埋め、より効果的な意思決定プロセスを支援するために、多くの企業が人工知能(AI)に注目しています。

AIは、常に新たな機会を生み出す一方で、公平性、平等性、プライバシー、透明性、信頼性、管理性といったテクノロジーの倫理については疑問が投げかけられています。

この記事では、以下の内容をご紹介します。

  • 責任あるAIの定義と、リスクを軽減する方法。
  • 責任あるAIの自動化を実装するメリット。
  • AIソリューションを開発・展開する際のベストプラクティス。
  • 責任あるAI導入の5つの基本原則。

責任あるAIとは

責任あるAIとは、倫理的観点や法的観点からAI開発プロセスに取り組むことです。目標は、安全で信頼性が高く、透明性の高いAIの使用を採用することです。これは、組織がコンプライアンスを維持し、適用されるすべての法律や規制に従うよう徹底することで組織を保護し、また、組織の信用を維持することにもなります。AIシステムは、人、セキュリティ、環境を常に最高水準で扱う必要があります。

  • AIガバナンスの一環として、AIモデルの文書化やパイプラインの監査により、AIの学習・テストやライフサイクル全体での動作の仕組みを明らかにする必要があります。
  • AIコンプライアンスは、AIを活用したシステムに適用される法律や規制を遵守させることであり、データプライバシーや知的財産権も含まれます。

健全なAIはビジネスにとっても健全です。そのようなAIには、以下のものが含まれます。

  • 説明責任:説明責任を持つ製品やサービスを構築するには、AIシステムのパフォーマンスが意図的かそうでないかを評価することが重要です。
  • 信頼:AIシステムを信頼できなければ、企業全体でさらなるテクノロジーを採用する際の妨げとなりかねません。責任あるアプローチは、信頼とロイヤルティを獲得します。
  • 責任の文化:ビジネスの意思決定者や開発者がAI導入の倫理的側面を考慮しながら、責任ある実践を犠牲にせずに、成功を導く革新的な方法を発見できるようにする必要があります。

自動化が適切な場面

インテリジェントオートメーション(IA)は、ロボティックプロセスオートメーション(RPA)、業務プロセス管理(BPM)、AIを組み合わせて、業務プロセスを自動化し、効率化します。AIはインテリジェントオートメーションの重要な要素であり、だからこそ責任あるAIが不可欠です。IAイニシアチブをどのようにトレーニングし、適応させるかは、組織の信用と法律や規制の遵守に直接影響します。

AIのリスクとは

AIの活用に責任ある取り組みを行わなければ、法的な処罰・罰金が科されたり、世評の低下を招くおそれがあります。機械学習(ML)モデルの学習に使用するデータセットは、AIシステムにバイアスを生じさせる可能性があります。これは、データの不備や不完全性が原因です。

モデルを学習させる際にデータ品質などの面が考慮されなければ、AIプログラムにバイアスが生じ、人や企業に悪影響を及ぼしかねません。無責任なAIの導入には、次のようなリスクを伴います。

  • データにエラーがある、または不正確である
  • バイアスや差別がある
  • 解釈可能性に欠ける
  • パフォーマンスが不安定になる
  • 拡張性がない
  • 重い処罰や高額な罰金が生じる

責任あるAIの使い方

AIに対するエンドユーザーの信頼を高め、従業員と組織に負の影響が及ばないようにするには、より透明性の高いAIシステムの構築が求められます。これは最終的に、AIなどのテクノロジーを正しく使用していれば、企業全体でさらに優れたプロセスを開発し、拡張するうえで必要な自信を持てるからです。

次のセクションでは、責任あるAI標準の導入に役立つベストプラクティスとツールを紹介します。

責任あるAIの実践とは

事業部門に新しいソフトウェアシステムを導入する際の一般的なベストプラクティスに加えて、AIの倫理性を確保する重要なアプローチを見てみましょう。

AIを実際のビジネスに導入する前に、まず次のことから始めましょう。

  • MLモデルとAIモデルを明確に定義する。
  • 学習データの信頼性と安全性を確認する。
  • AIの出力について説明可能なAIによりその方法と理由を示す。
  • AIのバイアスと差別に対処することで、公平性を管理する。
  • データを保護するプライバシー対策を実施する。
  • 敵対的な攻撃など潜在的な脅威がないか調査する。
  • 安全で回復力のあるAIシステムを構築する。
  • ループに人間を加えることで、AIのパフォーマンスを継続的に検証・監視する。
  • 規制要素を考慮し、あらゆるレベルで安全を確保する。

生成AIに備える方法

生成AIのような新しいテクノロジーを導入する前に、戦略計画を策定する必要があります。2022年に世界各国の上級管理職850人を対象に実施した調査では、責任あるAIとAI規制の重要性が広く認識されていることが明らかになりました。しかし、完全に堅牢で責任あるAIの基礎が整備されていると感じている組織はわずか6%でした。(Accenture、"A new era of generative AI for everyone")

以下は、生成AIに備えるヒントのトップ10です。

  1. 生成AIの可能性と脅威レベルを確認し、考え方を見直す。
  2. AIと人間のコラボレーションについて企業と人材を教育し、人間の監視を維持することでコンテンツを検証する。
  3. 生成AIの強み、限界、倫理的な考慮事項を見極める。
  4. 質の高い学習データを使用する。
  5. 業務部門とIT部門の連携を保ち、トップダウンとボトムアップの両方のアプローチでガバナンスを実施する。
  6. 環境、社会、ガバナンス(ESG)の要因や、生成AIモデルを学習させる際のエネルギー使用量を確認して、影響を検討する。
  7. 組織内の具体的な生成AIのユースケースを探す。
  8. ビジネス要件に合った適切なAIツールを使用し、インフラストラクチャを整備する。
  9. 責任あるAIフレームワークにより、AIガバナンスとAIコンプライアンスを確立する。
  10. テストと学習を実施し、さらにテストを繰り返す。継続的に適正な運用方法を検証する。

責任あるAIの5原則

責任あるAIの5原則

では、フレームワークの責任あるAIの原則を設計してみましょう。AIの倫理性を維持するには、継続的な監視が不可欠です。成熟度モデルや運用モデルに従うことで、安全で信頼性の高いAIシステムを設計し、導入できます。

その基盤として、次の5つの要件を中心にAIを構築します。

1.公平性と包括性

AIシステムは、特定のグループに偏ることなく、すべての人を公平に扱わなければなりません。

たとえば、医療機関がAIを使用して患者の症状に基づいて医療処置を推奨する場合、AIは、経済状況や職業的立場に関係なく、その症状を持つ患者全員に同じ推奨を行うべきです。

AIの意思決定システムが過去の人間のデータや影響に基づいたものであると、不公平なバイアスが生じるリスクを伴います。現実世界から収集した既存のデータでMLモデルを学習させた後、問題のあるバイアスを特定しなければなりません。このようなバイアスは、民族、性別、宗教、政治的傾向、文化などに基づいている可能性がありますが、AIの学習時に見過ごされることがあってはなりません。

実践上、AIシステムで考慮すべき要素は次のとおりです。

  • 専門家から多様な情報を収集する。
  • システムのさまざまなユースケースと、欠けている可能性のある要素を検討する。
  • システムがユースケース全体で機能するように目標を設定し、その目標を経時的に監視して、その公平性と包括性を確認する。
  • 公平性の目標を反映するようにアルゴリズムを設計する。
  • システムに不当なバイアスがないか継続的にチェックする。
  • さまざまなユーザー、ユースケース、コンテキストにわたる実世界のシナリオを評価する。

2.プライバシーとセキュリティ

ビジネス情報から個人情報まで、AIが使用するデータはますます複雑になってきています。学習データは機密性が高く、ときにAIシステムにとっては重要なこともあります(例:患者の過去のスキャン画像で検出されたがん細胞など)。

AIシステムは、地域や業界に適用されるすべての法律や規制に準拠する必要があります。しかし、社会や個人の要望も考慮する必要があります。特に、次の事項に対する透明性に注目してください。

  • データの収集、使用、保存方法。
  • 本来の目的に必要な量のデータのみを収集し、使用すること。
  • システムで顧客や従業員のデータを使用する権限。
  • データ利用の通知方法。
  • ビジネス全体のユーザーアクセス。
  • データの暗号化と漏洩。
  • ネットワーク通信の送受信。

3.透明性

AIモデルの実効性を高めるには、システム内の要素の動作について直接把握する必要があります。「説明可能なAI」と呼ばれるように、AIシステムがどのように判断を下しているかを正確に知らなければならないからです。それを理解することで、ミスやバイアスを回避でき、将来実行する予定の拡大もサポートできます。

たとえば、銀行がAIを使用してある人物が融資を受けられるかどうかを判断する場合、意思決定者は、データを遡及して、システムがこの選択に至った経緯や、予期せぬバイアスが存在したかどうかを正確に確認できなければなりません。

透明性を確保することで、以下の点が明らかになります。

  • データとアルゴリズムでモデルをどのように学習させたか。
  • データに適用されたロジック。
  • AIシステムが生成した最終モデル。

4.説明責任

AIシステムを設計・展開する開発者は、AIシステムが行うすべてのアクションや決定に対して責任を負います。社内にレビュー部門を早めに設置し、組織の成功を支援するうえで必要な指導・監督をシステムと人員に行います。業界標準を活用して説明責任の規範を策定することで、AIシステムが意思決定の最終権限を持たないようにします。

次のことを可能にするML学習モデルを検討します。

  • モデル内で使用されるすべてのメタデータを追跡する。
  • エンドツーエンドの意思決定を監査する。
  • 偏向した結果や潜在的なバイアスをユーザーに通知する。
  • 成果を示すデータに基づいた洞察を得る。

5.信頼性と安全性

信頼性が高く安全なAIシステムの鍵は、一貫性です。本来の設計どおりに機能し、新しい状況でも安全に応答できるものでなければなりません。想定外の状況に対するシステムの動作と応答は、設計とテストの段階で設定された条件の範囲によって異なります。

たとえば、特定の層に対してシステムのパフォーマンスが低下した場合に、不一致が発生する可能性があります。このため、厳格なテストと検証は不可欠です。開発者は、AIシステムが動作条件内でエッジケースにどのように応答するかを確認する必要があります。

また、AIシステムのパフォーマンスは時間の経過とともに低下する可能性があることにも注意が必要です。継続的なモニタリングとモデル追跡は、AIのパフォーマンスの信頼性と安全性を維持するうえで不可欠です。

実践上、開発者には次のことが求められます。

  • モデルの故障の分布状況を理解する。
  • エラー率の高いデータのサブセットを特定する。
  • 規模を拡大する前に、AIのバイアスを検出して除去する。

責任あるAIのメリットとは

責任あるAIのメリット

システムの目的からユーザーによるシステムの操作方法まで、AIの導入は、有益で公平な結果をもたらすことが求められます。こうしたメリットを達成するには、堅牢で戦略的なAIフレームワークが必要です。

責任あるAIの実践により、以下のことが可能になります。

  • 意図しないバイアスを最小限に抑える:AIの基礎となるデータが可能な限り偏りがなく、代表的なものとなるように、責任あるアルゴリズムを開発します。
  • 信頼と透明性を確立する:すべてのプロセスと機能にわたって透明性のある説明可能なAIを構築し、顧客、利害関係者、従業員間に信頼を築きます。
  • プライバシーを守る:すべての個人情報や機密情報が、非倫理的または許可なく使用されることがないよう、データの最善のプライバシーとセキュリティを確保します。
  • 従業員に機会を提供する:社内からAIシステムに対する疑問や懸念を指摘してもらい、イノベーションを奨励します。

責任ある自動化

AIの倫理とベストプラクティスを軽視していると、組織の経済的損失や世評の低下を招くおそれがあります。しかし、責任あるAIを使用すれば、組織はすべての業務を拡張・改善できます。

責任あるAIの中心となるのは、公平性と包括性、プライバシーとセキュリティ、透明性、説明責任、信頼性と安全という5つの基本原則です。これらの原則を守るには、明確なMLモデルとAIモデル、厳格なデータ検証、説明可能なAIシステム、バイアス軽減戦略、堅牢なセキュリティ対策、継続的な監視と検証が必要です。

責任あるAIは、単なる道徳的義務ではありません。これは、AIシステムの複雑性に対処し、メリットを模索する組織にとっては、戦略的に欠かせないものです。AIの変革力を取り入れる際は、責任あるイノベーションに取り組み、テクノロジーを相互接続された世界に恩恵をもたらす力として活用してください。

Gartner®のレポート「A CTO’s Guide to the Generative AI Technology Landscape」をダウンロード

The Latest From SS&C Blue Prism