Gartner は、2026 年までに世界中の政府の半数がAI を規制すると予測しています。その目的は、規制、ガイドライン、データ保護の必要性を通じて、責任ある AI の使用を強制することです。
AI規制の影響
しかし、規制は企業の AI 計画にどのような影響を与えるのでしょうか?そして、責任ある将来性のある AI を自社に導入するために、IT マネージャーや CIO は今日何ができるでしょうか? Gartner のディレクター アナリストである Anushree Verma 氏は、AI 規制に関する最も重要な質問と回答を FAQ にまとめました。
世界中の政府がAIを規制したいと考えています。これらの規制はどのような影響を及ぼしますか?
さまざまな政府が AI とGenAIの非倫理的またはその他の望ましくない使用から自国とその国民を守ろうとする中で、競合する規制の網が出現するため、責任ある AI 規制がデジタル世界に地理的境界を構築します。
企業向けの制限事項
これにより、IT 管理者が社内で外国の AI および GenAI 製品を最適に使用する能力が制限されます。この規制により、AI開発者は企業におけるAI倫理、透明性、データ保護の強化に注力することも求められる。
責任ある AI についてはよく話されています。それはどういう意味ですか?
責任ある AI は、企業内で AI を導入する際に適切なビジネスおよび倫理的決定を下すことに関しての包括的な用語です。この例としては、AI を使用する際の透明性やアルゴリズムのバイアスの最小化などが挙げられます。その他の側面には、顧客データの保護と法的規制の遵守だけでなく、破壊や悪用からモデルを保護することも含まれます。責任ある AI は、組織の責任と実践を運用化し、積極的かつ責任ある AI の開発と使用を保証します。
倫理審査
責任ある AI の開発と使用は、AI 製品やサービスの開発者だけでなく、AI ツールを使用する企業にとっても重要です。企業がこれらの規制に従わない場合、国民はこれらの企業を倫理的な監視の対象にすることになります。これは、影響を受ける企業に重大な財務的、風評的、法的リスクをもたらします。
責任あるAIはいつ主流になるのでしょうか?
Gartner は、責任ある AI が大部分の AI プロジェクトで重要な役割を果たすようになるまであとわずか 3 年かかると予想しています。これは、AI、特に GenAI の導入が加速していることと、それに伴う規制上の影響に対する注目が高まっているためです。
この影響を特に受けるアプリと業界は何ですか?
責任ある AI は、あらゆる業界のほぼすべての AI アプリケーションに影響を与えます。近い将来、金融サービス、ヘルスケア、テクノロジー、政府など、より規制の厳しい業界が責任ある AI を最初に採用することになるでしょう。
今後の役割
ただし、責任ある AI は消費者の信頼を高めるため、規制の少ない業界でも重要な役割を果たすでしょう。また、受け入れを促進し、財務的および法的リスクを軽減します。
現在および将来の可能性のある政府規制を考慮して、GenAI プロジェクトを将来にわたって保証するために企業はどのような行動をとるべきでしょうか?
企業が GenAI プロジェクトの将来性を保証する際に考慮できる対策がいくつかあります。
-
さまざまな政府の要求に応じて、責任ある AI に対する進化するコンプライアンス要件を監視し、組み込みます。組織の GenAI 製品およびサービスのポートフォリオをさまざまな国の AI 規制要件に合わせて調整するフレームワークを開発することをお勧めします。
-
自分の組織のコンテキストで責任ある AI 実践を理解し、実装し、適用します。これは、責任ある AI カリキュラムを確立することで実現できます。その後、教育と訓練に対する体系的なアプローチを導入する必要があります。さらに、これらのルールを社内に周知徹底する必要があります。これを行うには、利害関係者が関与し、実装に適したユースケースとソリューションを特定する必要があります。
-
責任ある AI を統合することで、ユーザー中心のソリューションで AI の信頼、リスク、セキュリティ管理 ( AI TRiSM ) を運用可能にします。これにより、受け入れが促進され、ユーザー エクスペリエンスが向上します。
-
責任ある AI ガバナンスに対するサービス プロバイダーの説明責任を確保します。これには、非倫理的および非準拠の行動、または AI ソリューションによって引き起こされる制御不能で説明不能なバイアスから生じるリスクの影響を軽減するための契約上の義務が含まれます。