Machine Learning

複雑な AI 規制: 企業が責任を持って前進する方法

March 18, 2024 1 分で読めます
AI 規制はまだ早いかもしれませんが、しかし今こそ、安全で生産的かつ責任ある AI の利用を確保するための方針を確立すべき時なのです。

多くの人々と同様、人工知能(AI)は我々が生きている間に経験する最も根本的で広範囲に及ぶ変革のひとつを引き起こすかもしれないと信じています。AI を活用することで、より効率的に企業を運営し、より良い顧客体験をよりタイムリーに提供する。ソフトウェア企業にとって、AI の力を活用した製品やサービスを開発することは必須となりつつあります。AI を無視することは、時代に取り残される危険性をはらんでいると言ってもいいでしょう。

そうは言っても、破竹の勢いで進む AI の技術革新は、公共の安全に対するこの技術のリスクや影響について、規制当局にいくつかの危険信号を投げかけています。一部の政府は AI 規制にいち早く着手しています(例えば、米国の AI 行政命令や欧州の画期的な AI 規制など)。 私は、AI の規制は今後変化していくと考えていますが、そのスピードが落ちることはないでしょう。規制が早い段階で基準を設定し、時には過剰に制限することもあるかもしれませんが、時間の経過とともに適切な水準になるでしょう。人々の保護と公共の安全は、常に重要な考慮事項です。 

こうした話が展開される一方で、企業は AI を生産的に、責任を持って、安全に進めるための基本原則に沿って今すぐ行動する必要があります。様子見の戦略では不十分なのです。アクイアでは、優れたテクノロジーを作り、価値を創造し、世界をより良い場所に残すために、独自の責任ある AI 原則を策定しました。

責任ある AI の構成要素

アメリカの国立標準技術研究所(NIST)の「AI における信頼性ガイドライン」のような基盤となるリソースを利用している場合でも、独自のポリシーを策定している場合でも、顧客や従業員、その他の関係者に適切な対応をしているかどうかを確認するためには、法規制を待たないことが重要です。

アクイアの責任ある AI 原則は、顧客や従業員とのやりとりを後押しするものです。私は経営幹部の皆さんに、自社の価値観に沿った AI 原則の策定をお勧めします。そして、その原則を組織や働き方の一部とする必要があります。これらの原則の上に、方針を実行し、継続的なガバナンス・モデルを確立するための運営委員会やタスクフォースの導入を検討しましょう。当社の AI タスクフォースは、責任ある AI 方針が日常的に実施されるようにしています。

それでは、アクイアの責任ある AI ポリシーのために選んだ主な領域と、独自のベストプラクティスを実施するための簡単なヒントをいくつかご紹介しましょう。

AI システムの安全性を確保し、倫理基準を満たすこと

何よりもまず、AI の責任ある利用を確実にするために、全従業員が AI リテラシーを身につける必要があります。AI はもはやデータサイエンティストのためだけのものではありません。私たちが日常的に使っているビジネスツールの中にもその機能はあり、すべての従業員はそれを安全に活用する方法を理解する必要があります。このアプローチは、E メールや 企業システムの安全な使い方を従業員に指導する方法と似ています。すべての従業員が AI、特に生成 AI を理解することで、未知への恐怖を取り除き、リスクを軽減し、予想もしなかったようなイノベーションを引き出すことができるようになるでしょう。

従業員教育だけでなく、AI システムを開発する際には、中核となる倫理ガイドラインを定めておく必要があるでしょう。これらのガイドラインに基づき、チームはリスクを整理し、それぞれのリスクを軽減するための計画をテストすることが必要です。デロイトの調査によると、72%の経営幹部が、生成 AI のようなコグニティブ(認知)テクノロジーに対する具体的な倫理原則を定義しており、半数以上の企業が、新しいテクノロジーに対する倫理基準を検討するための検討委員会やプロセスを使用しています。

さらに、自社の AI システムの安全性を確保するためには、リリース前に AI システムの脆弱性を徹底的にテストすることが重要です。これには、潜在的な脆弱性が発見されるように、レッドチーミング(または外部の攻撃者が行うような倫理的ハッキング技術を社内で使用すること)などの強固なセキュリティテスト手法を含める必要があるでしょう。生成 AI システムに関して話す場合、セキュリティテストとレッドチーミングは大きく異なってみえます。もっとも有害な結果を生成する可能性のあるものを発見するために、計画を実施しましょう。例えば、コードインジェクションのようなレッドチーミングの手法は、生成 AI モデルに有害なアウトプットを生成させることができるかもしれません。そこから、このような出力が決して公開されないように、チームはモデルを改良することができるのです。

AI システムによる説明責任と透明性の確保

AI をめぐる大きな懸念は、透明性の欠如です。アプリケーションによっては、アルゴリズムが人々の生活に劇的な影響を与えかねない決定を下す可能性があるからです。そのため、AI の適用方法について従業員、顧客、ユーザーに対して透明性を保ち、AI がどのように機能し、どのような判断を下すのかを説明する必要があります。

説明責任を果たすことで、顧客は AI システムがどのように機能するかを理解し、リスクを低減し、より多くの情報に基づいた購買決定を行うことができます。透明性を高めるために、特定の入力が結果にどのような影響を与えるのか、どのような種類のデータを使ってモデルがどのように学習されるのかを開示すると良いでしょう。さらに、どの製品が AI を使用しているかを明確に表記することもできるでしょう。

例えば、Acquia CDP のような製品の機械学習(ML)モデルは、入力変数がどのように重み付けされているか、透明性をユーザーに提供し、ユーザーがこれらの入力の影響や重み付けを調整したい場合は、独自のアルゴリズムを作成することもできるようになっています。また、AI とのやり取りを明確に表示することで、ユーザーが AI とやり取りしていることを認識できるようにしています。例えば、チャットボットに「アクイアボット」や「AI アシスタント」というように表示しており、AI 機能のインプットとアウトプットを明確に表示するように設計しています。

同じように説明義務を守れば、AI システムの結果について説明責任を果たすことができ、その結果の倫理的意味合いとビジネス上の意味合いの両方を守ることができるようになるでしょう。

個人情報の守秘義務を守る

信頼を構築するもう一つの重要な側面は、個人データが適切に取り扱われるようにすることです。アクイアの2023 CX Trends Report によると、企業の84%が、顧客は昨年よりも今年の方が企業による個人データの使用を信頼していると考えていることが明らかになりました。現実には、ブランドが個人データを適切に扱うと信頼している消費者は56%に過ぎません。これは、すべての企業が努力して上げなければならないハードルではないでしょうか。

将来のAI関連法が、欧州の GDPR や米国の州ごとの規制など、現行のデータプライバシー法やデータ取扱法と密接に整合することは間違いないでしょう。これは、AI システムが顧客向けアプリケーション(カスタマーサポートなど)や AI が生成するコーディングに使用されるにつれて、さらに重要になることでしょう。個人を特定できる情報(PII)や知的財産(IP)を不注意で公開してしまうリスクは、無視できないほど大きいものとなります。

この現実に備えるために、機密情報を機械学習モデルに公開していないか自問してみましょう。AI モデルはトレーニングデータに基づいて学習します。したがって、個人情報やプライベートな情報を公開していないことを確認することが極めて重要なのです。さらに、個人情報をマスキングすることは非常に大切です。自社システムまたは外部システムからデータを取り込む場合、AI モデルに使用する前に、データマスキングによって値を変更して機密データを隠すようにしましょう。名前、住所、電話番号、その他のユニークな識別子などのあらゆる個人情報は、AI システムにデータを取り込む前にマスキングする必要があります。

公平性を確保し、バイアスを最小限に抑える

独自の AI モデルを開発する場合、モデルの出力における公平性を確保し、バイアスを最小限に抑える必要があります。AI モデルは、トレーニングに使用されるデータに基づいて本質的に偏りがあります。バイアスには、計算/統計的なもの(トレーニング用データセットが特定の結果に有利になるように重み付けされている場合)、人間的なもの(データセットに人間的なバイアスが反映されている場合)、システム的なもの(データセットに特定のグループを差別するような制度上の深い問題が反映されている場合)が考えられます。オープンなインターネット上で一般に公開されているトレーニング用データセットをもとに構築されたモデルは、偏った結果をもたらすことが示されています。例えば、このペンシルベニア州立大学の最近の研究(英語サイト)では、公開モデルがいかに障害バイアスを示しているかを明らかにしました。

このバイアスに対抗するには、監視下でのラーニングが不可欠です。人間がループに入ることで、どの出力が偏っているかをアルゴリズムにフィードバックすることが可能になります。これによってモデルを微調整し、将来的なバイアスやエラーの可能性を減らすことができるでしょう。AI アルゴリズムをトレーニングするのは、必ずしも社内の人間である必要はありません。顧客やユーザーからの定期的なフィードバックも、公平性を確保し、偏りを減らし、精度を高めるためにモデルを改良するのに効果的です。私たちは、Acquia CDP のような AI を搭載した製品について、ユーザーからの定期的なフィードバックを大切にしており、ユーザーが私たちの ML モデルのブラックボックスに入ることで、独自のカスタムモデルを作成できるようにしています。

AI 規制の初期段階における責任ある行動

AI の規制はまだ黎明期にありますが、従業員と顧客の両方との信頼を維持するためには、AI に対して責任を持つ必要があります。アクイアは、テクノロジーがすべての人々にとってより良く、より安全な未来を築くことができると信じており、すべてのビジネス上の意思決定で世界にポジティブな影響を与えるよう努めています。AI も例外ではありません。

これは積極的な行動を呼びかけるメッセージです。もしまだ対策を講じていない場合は、自社の AI システムに強力なポリシーと継続的なガバナンスを導入しましょう。システムの透明性、公平性、安全性、セキュリティ、プライバシーを維持するために、独自の責任ある AI のベストプラクティスを確立することから始めてください。これは正しいことであるだけでなく、最良のビジネス判断でもあります。顧客が AI をより快適に利用できるようになれば、あなたのブランドを支持してくれるようになるでしょう。

関連記事

全て表示する