Color photo of young Black man sitting in front of a computer monitor at an office
Digital Security & Governance

企業が AI の脅威から身を守る6つの方法

March 22, 2024 1 分で読めます
AI を最大限に活用しつつ、利用される側にならないこと。
Color photo of young Black man sitting in front of a computer monitor at an office

人工知能(AI)が多くの分野にもたらす可能性は深遠で刺激的です。私たち人間はその興奮を保ちつつも、サイバー犯罪が AI によって促進される可能性があることを忘れてはなりません。実際、英国のナショナル・サイバー・セキュリティ・センターは先月、AI ツールの急速な普及はサイバー攻撃(特にランサムウェアの脅威)の増加につながる可能性が高いだけでなく、洗練されていないハッカーがデジタル上の大混乱を引き起こす障壁も低くなると警告しています。

サイバーセキュリティを最重要視するアクイアでは、この警告を真摯に受け止めています。そのため、最高情報セキュリティ責任者のロバート・フォーマー、上級主任コンプライアンス・オーディター兼 GRC ディレクターのジャスティン・シェリー、DXP 製品担当シニア・バイスプレジデントのディアナ・バリューという社内の専門家によるパネルディスカッションを開催し、組織が AI の脅威から身を守る最善の方法と、AI の可能性を最大限に生かすための責任ある AI の活用方法について議論しました。

1. 社内に AI 委員会を設置する

どのような組織においても、急速に進歩するAIと、その技術を規制する法律(またはその不備)を一人の人間が把握することは不可能です。そのため、今回のパネリストたちは皆、製品やサービスにおける AI の利用を監視するための社内委員会の設立を推奨しています。委員会のメンバーは、人事、法務、セキュリティ、製品、およびその他の部門から選出し、会社全体にタイムリーなガバナンス、監督、ガイダンスを提供すると良いでしょう。

例えばアクイアでは、社内の AI 委員会が非常に活発な Slack チャンネルを設けており、新たな規制や訴訟について意見を交わしたりしています。「AI を安全な方法で推進するには、組織内の専門家が集まって、その方法を考え出す必要がある」とバリューは話しています。

2. 社内外で透明性のあるコミュニケーションを行う

「AI が直面する技術的な難題に加え、社会的な側面でも非常に大きな難題があります」とフォーマー。「AI の利用には多くの恐怖、不確実性、疑念がある。誰もがターミネーターの登場を待ち望んでいる」。このような懸念に対処するため、社内外のユーザーに対し、コンプライアンスと倫理的に適合した AI の使用のための措置について、情報を開示することをフォーマーは勧めています。

バリューは、フォーマーが指摘したことを強調しました。「何を行い、データをどのように使用しているかを理解すること。AI モデルがどのようにトレーニングされているか?それを明文化し、透明性を保つこと。より深く理解すればするほど、リスクは軽減される」と話しました。

3. 安全な開発ライフサイクルの採用

フォーマーにとって、AI の安全な開発ライフサイクルはテストすることに尽きます。設計、開発、デプロイメントにおいてセキュリティーを確保したいのであれば、ポジティブなテスト(AI モデルは期待通りに動作しているか)とネガティブなテスト(どのような点で期待を超えて進化しているか)の両方を継続的に行う必要があります。

例えばアクイアでは、毎年グローバル・レジリエンシー・マネージャーとプロダクトチームが各事業部門をテストしています。「こうしたチームと頻繁に連絡を取り合い、彼らも私たちも、会社として何が起きても対応できるようにしています」とシェリーは説明します。

そのレベルのセキュリティが組織に浸透するまでには時間がかかるかもしれませんが、忍耐強く取り組みましょう。「すぐに結果が出るとは思わないでください」とフォーマー。

4. AI レジストリを作成する

組織で使用されている AI モデルのレジストリを作成し、データの出入りを把握しましょう。「セキュリティ上のインシデントが発生した場合、システムが AI テクノロジーとどのように相互接続しているかを知ることは、システムの分離が必要な場合に下流への影響を分離するのに役立ちます」とチェリー氏は説明します。システム内で AI がどのように統合されているかを把握し、インシデント対応計画に組み込んでおきましょう。

レジストリは、透明性に関してバリューが指摘したことに関連します。「AI をどのように活用しているのか、組織内の全員に知ってもらうことで怖くなくなります。「AI はブラックボックスではありません。どこでどのように使われているかということを可視化する」と彼女は述べました。

5. スタッフや同僚の AI リテラシー向上をサポートする

AIが職場に導入されたことに対し、企業はさまざまな形で対応してきました。例えば、職場で ChatGPT を使用して好きなことをさせるなど、従業員に任せている企業もあれば、AI を完全に排除し、ウェブブラウザで特定のサイトへのアクセスを禁止している企業もあります。

アクイアはその中間の道を選んでいます。「私たちは AI に多くの可能性を見出しているが、その可能性を実現するには、安全な方法で従業員を AI に解放する必要がある」とフォーマーは話します。

アクイアでは AI の使用に関するポリシーを作成し、AI を使用する従業員や AI に興味を持つ従業員のためにプライベート・サンドボックスを設けています。このサンドボックスでは、社内の知的財産や顧客のデータにリスクをもたらすことなく AI を使用することができるようになっています。

「AI に対する興味関心は高く、従業員はいやがおうにも AI を使おうとするだろう。だから最初から安全な遊び場を与える」とフォーマーは述べました。

6. 調達プロセスにおける AI 購入のパラメータを定義する

AI ツールを業務フローやツールに組み込む前に、AI 購入のために設定した社内基準に照らし合わせて評価しましょう。例えば第三者が介在する場合は、それらを吟味し、検討中のツールがある場合は、それをテストします。テクノロジーの導入を回避した場合、競合優位性を犠牲にするかもしれないが、リスクを招きたくもないでしょう、とフォーマーは指摘します。「論理的にアプローチし、社内外にできる限りの透明性を確保すること」。

そして、そのツールやサービスが実際に役に立つかどうかを評価しましょう。AI はまだ成熟途上にあるため、AI が適用される用途の中には、日々の業務でその有用性が証明されていないものも含まれています。

製品にAIを組み込む企業も同様です。「AI 機能を早急に実装することで、ブランドの評判を危険にさらしたくはないはず。セキュリティ侵害につながったり、視聴者に不信感を抱かせたりすることのないよう、実用的なものであることを十分に確かめる必要がある」と彼女は言います。私たちは、AI を Acquia DAM に組み込み、そのコンテンツ生成機能によって市場投入までの時間を短縮したり、機械学習(AI のサブセット)を Acquia CDP に組み込んだりする際にも、こうした原則に従っています。

これからやるべきこと

AI への期待値は業界を越えて広がっており、消費者はこのテクノロジーに対して好奇心、恐怖心、興奮の入り混じった感情を示しています。企業は、消費者を安心させ、その熱意を促進すると同時に、その可能性を具現化することができるでしょう。しかし、責任をもって行動し、AI が生み出しうる有害な結果から保護するために必要な措置を講じる場合に限ります。AI のセキュリティとコンプライアンスに関するパネリストのアドバイスについては、ウェビナー(英語)をご覧ください。

関連記事

全て表示する