ブログ
生成AIと予測AIの比較
お問い合わせ
労働力やスキルの不足に加えて、経済の混乱により、多くの組織は「品質、顧客体験、従業員体験を維持(または理想的には改善)しながら、業務を効率化する具体的な方策」を模索しています。こうしたギャップを埋め、より効果的な意思決定プロセスを支援するために、多くの企業が人工知能(AI)に注目しています。
AIは、常に新たな機会を生み出す一方で、公平性、平等性、プライバシー、透明性、信頼性、管理性といったテクノロジーの倫理については疑問が投げかけられています。
この記事では、以下の内容をご紹介します。
責任あるAIとは、倫理的観点や法的観点からAI開発プロセスに取り組むことです。目標は、安全で信頼性が高く、透明性の高いAIの使用を採用することです。これは、組織がコンプライアンスを維持し、適用されるすべての法律や規制に従うよう徹底することで組織を保護し、また、組織の信用を維持することにもなります。AIシステムは、人、セキュリティ、環境を常に最高水準で扱う必要があります。
健全なAIはビジネスにとっても健全です。そのようなAIには、以下のものが含まれます。
インテリジェントオートメーション(IA)は、ロボティックプロセスオートメーション(RPA)、業務プロセス管理(BPM)、AIを組み合わせて、業務プロセスを自動化し、効率化します。AIはインテリジェントオートメーションの重要な要素であり、だからこそ責任あるAIが不可欠です。IAイニシアチブをどのようにトレーニングし、適応させるかは、組織の信用と法律や規制の遵守に直接影響します。
AIの活用に責任ある取り組みを行わなければ、法的な処罰・罰金が科されたり、世評の低下を招くおそれがあります。機械学習(ML)モデルの学習に使用するデータセットは、AIシステムにバイアスを生じさせる可能性があります。これは、データの不備や不完全性が原因です。
モデルを学習させる際にデータ品質などの面が考慮されなければ、AIプログラムにバイアスが生じ、人や企業に悪影響を及ぼしかねません。無責任なAIの導入には、次のようなリスクを伴います。
AIに対するエンドユーザーの信頼を高め、従業員と組織に負の影響が及ばないようにするには、より透明性の高いAIシステムの構築が求められます。これは最終的に、AIなどのテクノロジーを正しく使用していれば、企業全体でさらに優れたプロセスを開発し、拡張するうえで必要な自信を持てるからです。
次のセクションでは、責任あるAI標準の導入に役立つベストプラクティスとツールを紹介します。
事業部門に新しいソフトウェアシステムを導入する際の一般的なベストプラクティスに加えて、AIの倫理性を確保する重要なアプローチを見てみましょう。
AIを実際のビジネスに導入する前に、まず次のことから始めましょう。
生成AIのような新しいテクノロジーを導入する前に、戦略計画を策定する必要があります。2022年に世界各国の上級管理職850人を対象に実施した調査では、責任あるAIとAI規制の重要性が広く認識されていることが明らかになりました。しかし、完全に堅牢で責任あるAIの基礎が整備されていると感じている組織はわずか6%でした。(Accenture、"A new era of generative AI for everyone")
以下は、生成AIに備えるヒントのトップ10です。
では、フレームワークの責任あるAIの原則を設計してみましょう。AIの倫理性を維持するには、継続的な監視が不可欠です。成熟度モデルや運用モデルに従うことで、安全で信頼性の高いAIシステムを設計し、導入できます。
その基盤として、次の5つの要件を中心にAIを構築します。
AIシステムは、特定のグループに偏ることなく、すべての人を公平に扱わなければなりません。
たとえば、医療機関がAIを使用して患者の症状に基づいて医療処置を推奨する場合、AIは、経済状況や職業的立場に関係なく、その症状を持つ患者全員に同じ推奨を行うべきです。
AIの意思決定システムが過去の人間のデータや影響に基づいたものであると、不公平なバイアスが生じるリスクを伴います。現実世界から収集した既存のデータでMLモデルを学習させた後、問題のあるバイアスを特定しなければなりません。このようなバイアスは、民族、性別、宗教、政治的傾向、文化などに基づいている可能性がありますが、AIの学習時に見過ごされることがあってはなりません。
実践上、AIシステムで考慮すべき要素は次のとおりです。
ビジネス情報から個人情報まで、AIが使用するデータはますます複雑になってきています。学習データは機密性が高く、ときにAIシステムにとっては重要なこともあります(例:患者の過去のスキャン画像で検出されたがん細胞など)。
AIシステムは、地域や業界に適用されるすべての法律や規制に準拠する必要があります。しかし、社会や個人の要望も考慮する必要があります。特に、次の事項に対する透明性に注目してください。
AIモデルの実効性を高めるには、システム内の要素の動作について直接把握する必要があります。「説明可能なAI」と呼ばれるように、AIシステムがどのように判断を下しているかを正確に知らなければならないからです。それを理解することで、ミスやバイアスを回避でき、将来実行する予定の拡大もサポートできます。
たとえば、銀行がAIを使用してある人物が融資を受けられるかどうかを判断する場合、意思決定者は、データを遡及して、システムがこの選択に至った経緯や、予期せぬバイアスが存在したかどうかを正確に確認できなければなりません。
透明性を確保することで、以下の点が明らかになります。
AIシステムを設計・展開する開発者は、AIシステムが行うすべてのアクションや決定に対して責任を負います。社内にレビュー部門を早めに設置し、組織の成功を支援するうえで必要な指導・監督をシステムと人員に行います。業界標準を活用して説明責任の規範を策定することで、AIシステムが意思決定の最終権限を持たないようにします。
次のことを可能にするML学習モデルを検討します。
信頼性が高く安全なAIシステムの鍵は、一貫性です。本来の設計どおりに機能し、新しい状況でも安全に応答できるものでなければなりません。想定外の状況に対するシステムの動作と応答は、設計とテストの段階で設定された条件の範囲によって異なります。
たとえば、特定の層に対してシステムのパフォーマンスが低下した場合に、不一致が発生する可能性があります。このため、厳格なテストと検証は不可欠です。開発者は、AIシステムが動作条件内でエッジケースにどのように応答するかを確認する必要があります。
また、AIシステムのパフォーマンスは時間の経過とともに低下する可能性があることにも注意が必要です。継続的なモニタリングとモデル追跡は、AIのパフォーマンスの信頼性と安全性を維持するうえで不可欠です。
実践上、開発者には次のことが求められます。
システムの目的からユーザーによるシステムの操作方法まで、AIの導入は、有益で公平な結果をもたらすことが求められます。こうしたメリットを達成するには、堅牢で戦略的なAIフレームワークが必要です。
責任あるAIの実践により、以下のことが可能になります。
AIの倫理とベストプラクティスを軽視していると、組織の経済的損失や世評の低下を招くおそれがあります。しかし、責任あるAIを使用すれば、組織はすべての業務を拡張・改善できます。
責任あるAIの中心となるのは、公平性と包括性、プライバシーとセキュリティ、透明性、説明責任、信頼性と安全という5つの基本原則です。これらの原則を守るには、明確なMLモデルとAIモデル、厳格なデータ検証、説明可能なAIシステム、バイアス軽減戦略、堅牢なセキュリティ対策、継続的な監視と検証が必要です。
責任あるAIは、単なる道徳的義務ではありません。これは、AIシステムの複雑性に対処し、メリットを模索する組織にとっては、戦略的に欠かせないものです。AIの変革力を取り入れる際は、責任あるイノベーションに取り組み、テクノロジーを相互接続された世界に恩恵をもたらす力として活用してください。
Gartner®のレポート「A CTO’s Guide to the Generative AI Technology Landscape」をダウンロード
ご利用のネットワークにおいてYouTubeがブロックされている場合、このウェブページの動画が適切に表示されない場合があります。その場合は、別のネットワークに切り替えてください。動画を再生すると、サードパーティであるYouTubeのCookieが設定されます。詳しくはCookieポリシーをご確認ください。