CISOに求められるAIワークロードのセキュリティ確保

By 清水 孝郎 - MAY 22, 2024

SHARE:

本文の内容は、2024年5月21日に LORIS DEGIOANNI が投稿したブログ(https://sysdig.com/blog/urgency-of-securing-ai-workloads-for-cisos/)を元に日本語に翻訳・再構成した内容となっております。

さまざまな形態の生成型人工知能 (GenAI) に対してメディアが注目する背景は、GenAIがCISO、CIO、セキュリティリーダーにとって重要な動向に直面していることを浮き彫りにしています。つまり、急速な技術変化と、この変化が企業にもたらすリスク要因に遅れを取らないようにすることです。ブロックチェーン、クラウドのマイクロサービス、またはこれらの GenAI ワークロードのいずれであっても、セキュリティリーダーは組織のセキュリティと障害からのレジリエンスを維持するという任務を負っているだけでなく、新しいテクノロジーと新しいビジネス モデルに関連するリスクを理解し、管理する重要な役割を担っています。新しいテクノロジーごとに新しい考慮事項と評価すべきリスクが生まれますが、セキュリティの専門家が積極的に対処しなければならない不変の要素がいくつかあります。 

時間的な配慮

私たちのビジネスとそれを支えるアプリケーションは、ネットワークとマシンの速度で実行されます。Web サービス、API、その他の相互接続は、ほぼ瞬時の応答を実現するように設計されています。「時間が重要」と指摘するのは弁護士だけではありません。私たちがサポートするすべての同僚、そして組織を運営するために共同で使用しているビジネス アプリケーションとサービスも同様です。速度と応答時​​間に重点が置かれるのは、ビジネストランザクションとそれらが依存するアプリケーション開発環境に浸透しています。応答と提供を急ぐあまり、事実上ポイントインタイム分析であった従来のリスク評価と評価が損なわれています。今日のセキュリティでは、マシンの速度でインスタンス化されたリアルタイムのコンテキストと実用的な洞察が求められています。セキュリティ運用を高速化するには、ランタイムテレメトリとランタイムインサイトが必要です。

オートメーション

夕方のニュースでは、AIシステムが私たち人間よりも効率的に仕事をこなす機械やアプリケーションによって労働者を置き換えることを示唆する記事で溢れています。 自動化は目新しいものではありません。 ほとんどすべての産業が自動化に投資しています。 私たちは、自動車を製造するロボット、銀行や小売店のキオスク端末、サイバーセキュリティ専門職の自動化を目の当たりにしています。 私たちは、GenAIツールがビジネスをサポートするために展開されるにつれて、新しい形の自動化を目撃することになるでしょう。 インフラストラクチャー、運用、セキュリティプログラムにおけるシステム、コード、設定のレビューでは、すでにこのようなことが起きています。 自動化は、セキュリティプログラムの中で歓迎されるべきであり、プログラムの目標運用モデルに不可欠なものとなっています。

アルゴリズムと数学モデル

テクノロジーの変化で私たちが目にする 3 番目の定常点は、データを文脈化して抽出するためにアルゴリズムと数学的モデルを使用することです。私たちはアルゴリズム経済の中で生きています。データと情報がビジネスを推進します。アルゴリズムはビジネス モデルと意思決定に情報を与えます。速度と自動化の他の定数と同様に、サイバーセキュリティの専門家でもアルゴリズムが使用されます。アルゴリズムはプロセス、電子メール、ネットワークトラフィック、その他多くのデータセットを評価して、動作が悪性か良性かを判断します。アルゴリズムに関する注目すべき課題は、ほとんどの場合、アルゴリズムがメーカーの知的財産とみなされていることです。アルゴリズムと透明性は相反するものです。したがって、アルゴリズムの結果の忠実性と保証に取り組むことは、科学というよりもむしろ信念の飛躍にすぎません。結果は良好であると想定しますが、アルゴリズムの実行後に 2 プラス 2 が 4.01 に等しくないという保証はありません。 

新しいテクノロジーを評価する方法

スピード、自動化、アルゴリズムの使用というこのコンテキストは、CISO が組織がビジネスと運用のセキュリティの両方のために AI ツールをどのように導入するかを評価する際に、最優先に考慮する必要があります。GenAI などの新しいテクノロジーとそれに伴うリスクをコンテキスト化する方法論を持つことは、CISO と CIO の役割に不可欠です。テクノロジーリーダーは、スピード、自動化、意思決定とデータ分析のためのアルゴリズムの広範な使用という定数に従いながら、それぞれのプログラムを効果的に運用し、ビジネスをサポートする必要があります。 

テクノロジーの変化と、この変化がビジネスにもたらす固有のリスクによって不意を突かれることを避けるためには、新しいテクノロジーを迅速に評価するための方法論的アプローチが必要です。各企業はリスクを評価するための独自のアプローチを持っていますが、いくつかの効果的な手法が方法論の一部である必要があります。GenAI の影響を評価するために使用できるいくつかの重要な要素を簡単に見てみましょう。

 

ビジネスに取り組む

GenAI のような新しいテクノロジーは、組織全体に影響を及ぼします。IT、事業部門、人事、法務顧問、プライバシーなど、組織の主要な関係者からフィードバックや洞察を得るようにしましょう。社内の同僚と定期的に会う CISO は、同僚が採用している新しいツールやアプリケーションに驚かされることを避けられます。CISOは、セキュリティ コミュニティ内の同僚やカウンターパートに、現在 AI をどのように使用しているか、組織内の特定の機能で AI をどのように使用しようとしているかを尋ねる必要があります。 

STRIDE と DREAD を使用してベースライン脅威モデルの実施

基本的な脅威モデリングは、より伝統的なリスクアセスメントや侵入テストを補完するものであり、迅速性が求められる場合には非公式に実施することができます。 CISOとそのスタッフは、想定されるAIのユースケースに目を通し、AIアプリケーション内でのユーザーの行動がどのようになりすまされる可能性があるか、情報がどのように改ざんされる可能性があるか、トランザクションがどのように否認される可能性があるか、情報漏えいがどこで発生する可能性があるか、サービスがどのように拒否される可能性があるか、環境内で特権がどのように昇格される可能性があるかを評価するための質問を行うべきでしょう。 セキュリティチームは、これらの質問に対して探究的なアプローチをとるべきであり、与えられたシステムやアプリケーションを悪用しようとするとき、脅威行為者のように考えるべきでしょう。 基本的な STRIDE モデルは、重要なリスクが分析から漏れないようにします。 DREAD は、システムの影響を調べ、STRIDE のコンテキストを補完します。 CISOとセキュリティチームは、AIのワークロードやサービスが侵害された場合に生じる可能性のある損害、システムに対する攻撃を再現するのがどの程度容易か、所定のシステムを悪用するために必要なスキルやツールの程度、影響を受けるユーザやシステムは誰か、攻撃を発見するのがどの程度困難かを評価する必要があります。

テレメトリのリスクを評価する

新しいアプリケーションや技術、例えば現在の形態の生成AIなどは、より成熟した技術の従来のテレメトリーを欠いているかもしれません。CISOやセキュリティチームのメンバーは、AIサービスについて基本的な質問をする必要があります。プロセスを始めるためには、シンプルなオープンエンドの質問が役立ちます。「このアプリケーションで私たちが見るべきだが見えていないものは何ですか?そして、なぜそれが見えていないのですか?」と質問してみましょう。さらに深く掘り下げて、「このアプリケーションについて私たちが知るべきだが知らないことは何ですか?そして、なぜそれを知らないのですか?」と尋ねます。これらの質問をランタイム、ワークロード、および構成の観点から掘り下げてください。このようなオープンエンドの質問は、アプリケーションのセキュリティの大幅な改善につながることがあります。このような質問がされていなければ、セキュリティの専門家はランタイムでアプリケーションが直面するリスクや、サービスアカウントが過剰に権限を持つ頻度、あるいはサードパーティのコードが導入する脆弱性が是正や追加のコントロールの実装を必要とすることを見逃していたでしょう。

特定されたリスクに対してリスク登録を使用する

CISOとそのチームは、生成AIアプリケーションの使用に関する懸念を文書化し、これらのリスクをどのように軽減するかを記録するべきです。生成AIがもたらすリスクには多くの形態があります。例えば、応答の信頼性や保証に関連する問題、アプリケーションに情報を入力した際に発生する可能性のあるデータや知的財産の損失、組織に対するディープフェイクや高度なフィッシング攻撃の広範な使用、そして環境に迅速に適応して攻撃するポリモルフィックマルウェアなどです。生成AIは、この大規模な言語モデル(LLM)が組織の従業員の情報や公開されている情報を基に、組織固有の攻撃を迅速に作成できるため、組織の攻撃対象範囲を劇的に拡大します。実際には、これらのAIツールが使用するアルゴリズムは難読化されていますが、使用されるデータは公共の領域にあり、正当な目的でも悪意のある目的でも迅速に統合される可能性があります。AIツールやアプリケーションを使用する際には、これらの潜在的なリスクをすべてリスクレジスターに記録します。最終的には、特定のAI機能やアプリケーションを使用することの利点が識別されたリスクを上回るかどうかを判断するのはビジネスの役割です。リスクの処理はビジネスに委ねられるべきです。私たちセキュリティリーダーの役割は、Cレベルの同僚がリスクとその対策、そして必要なリソースについて認識していることを確実にすることです。

トレーニングとクリティカル思考にフォーカスする

インターネットがユビキタスな接続とほぼリアルタイムの情報へのアクセスを通じてビジネス運営をもモダナイズしたのと同じように、AI には私たちの経済を根本的に変える機会があります。ことわざの魔神が AI ボトルから出てきました。AI の創造的で新しい用途が猛烈なスピードで開発されています。市場原理やイノベーションとの戦いは存在しません。セキュリティの専門家として、私たちはこの変化を積極的に受け入れ、リスク要因を評価し、ビジネスを中断したり遅らせたりすることなくリスクを修復するための賢明な推奨事項を提示する必要があります。私たちの専門家とチームにとって、これは簡単な要求ではありません。しかし、積極的なアプローチを採用し、同僚がクリティカル思考の十分な訓練を受けていることを確認し、サービスのターゲットをどのように絞るかを検討することで、AI が企業にもたらす可能性を受け入れる組織の回復力を高めることができます。 

企業や経済におけるAIの存在が拡大するにつれ、新たなビジネスモデルや派生技術が間違いなく出現してきます。 CISOやセキュリティリーダーは、このような状況を踏まえて、現在および将来のセキュリティ対策やセキュリティツールの有効性を評価する必要があります。攻撃者は高度なスキルを持ち、自動化されたテクニックを使って私たちの組織を侵害します。 このような攻撃者は、すでにGenAIの悪質な形態を利用して、新たなゼロデイ攻撃やその他の高度に洗練された攻撃を仕掛けており、重要な役割や利害関係者をターゲットにソーシャルエンジニアリングを頻繁に使用しています。 つまり、我々の敵は、そのゲームのレベルを上げ続けています。 セキュリティリーダーとして、私たちにも同様の対応が求められます。 私たちは、実行時やネットワークスピードで実行されるリスクに立ち向かうためには、セキュリティ運用のペースとスピードを向上させなければならないことを知っています。