サイバーセキュリティの概念を覆すAIの進化

世界経済フォーラムの今年の年次総会(ダボス会議)は、例年に比べ、注目度が高かったように思います。理由は、トランプ大統領が年明けにベネズエラを攻撃し、その後、グリーンランド領有化への意欲をひときわ強く表明し始めた時期と重なったうえに、本人が直接会議に参加したことが大きかったのでしょう。カナダのカーニー首相が世界の中堅国家の結束を呼び掛けたスピーチも話題になりました。

ニュースとしては、トランプ大統領が世界の政治情勢を揺るがす話題を次から次へと繰り出すので、それ以外の話題がすっかり霞んでしまいましたが、ダボス会議ではサイバーセキュリティについてもしっかりと話し合われ、特にAIセキュリティの重要性が確認されました。

世界経済フォーラムの年次報告書「Global Cybersecurity Outlook 2026」でも、特にAI関連の脅威の急拡大に強く警鐘を鳴らしています。世界92か国で804の企業や団体から回答を集計した調査によると、94%がサイバーセキュリティ上の最大の懸案事項としてAIを挙げ、87%がAI関連リスクに最大の脅威を感じています。にもかかわらず、約3分の1の企業・団体にはAIツール導入前にセキュリティを検証するプロセスがないことも判明し、AIセキュリティの管理体制がAIツールの普及速度に追いついておらず、それどころか、その差がますます広がっている現状が浮き彫りになっています。

膨張するAI脅威と、そのスピードに引き離されるAIガバナンス

そもそも、AIは生産性を高めるために開発されたツールでしたが、その本来の目的を逸脱した急速な進化が顕著になっています。AIを活用したサイバー攻撃は年々増加し続け、生成AIは標的向けにカスタマイズした信憑性のあるフィッシングを、言語を問わず、簡単に作れるようになっています。仮に一企業を標的とした場合、数千人の従業員に対して個別にカスタマイズしたフィッシング メールをほんの数秒で生成し、送信できると言われています。2023年の段階ですでに、AIを活用したフィッシングの被害件数は前年比40%増を記録しています。フィッシングそのものの総数は年々減っているとのことなので、その割に被害件数が伸びているということは、いかにAIがフィッシングの精度と成功率を高めているかが伺えます。

AIの脅威は、詐欺コンテンツの生成能力だけではありません。標的を分析して内容をカスタマイズする力もさることながら、標的のシステムに対する分析能力もさらに大きな脅威です。企業ネットワークをスキャンして脆弱性を検出し、専用マルウェアを生成して数分でデプロイする力が、すでにAIには備わっています。システム管理者が毎日対応して、脆弱性にパッチを当て続けても、AIの脅威はすでに人間では到底太刀打ちできない速度にまで加速してしまっています。

これに加え、近年ではAIツールの普及と同時に「シャドーAI」の問題も顕著になってきています。前述の、AIセキュリティ管理体制が現状に追いついていない問題と大いに関係がありますが、従業員が独自の判断でAIツールを日常業務に取り入れ、企業全体のセキュリティリスクを増大させてしまう現象が「シャドーAI」です。ChatGPTをはじめとして、AIがこれほど日常に浸透した今日、シャドーAIのリスクは企業のみならず、学校から政府機関まで、すべての団体に潜在する問題です。IT調査会社ガートナーが302社を対象に行った昨年の調査によると、69%の企業が従業員によるシャドーAI行為をなんらかの形で認識しているといいます。2030年までに全世界でシャドーAIによるコンプライアンスまたはセキュリティのインシデントを経験する企業は40%増加するだろうと、ガートナーは予測しています。

目には目を、AIにはAI

このように、人々の生活を便利にするために効率を高めるはずのAIツールは、サイバー攻撃の効率も高め、しかも、そのスピードと精度が人間が対応できる限界をすっかり凌駕してしまっています。ロボットが人間の能力を超え、人間社会を征服するのはSF映画の空想の世界のはずなのですが、サイバー空間においては、すでにそれに近い状況が現実になっていることを重く受け止めなければいけない時代に突入しています。

つまり、サイバー攻撃はもはや避けられないということです。これまで被害を受けていない企業は、いつかは必ず受けてしまうもの、すでに受けていても、また受けてしまうもの、と考えなければなりません。

人間ができる対抗策は、リスクを最小限に抑えることと、被害に遭ってしまった場合の復元力、つまりは「サイバーレジリエンス」を高めることに尽きます。

目には目を、AIにはAIを、でサイバー脅威への防御にAIを活用するのは、人間だけで対応するよりも、スピードと精度の面で有効です。敵のAIが脆弱性を検出してセキュリティの穴を見つけようとするのなら、当然こちらもAIで先手を打って社内ネットワークをスキャンして穴を塞いでおけるはずです。そして、敵の侵入の気配もAIでモニタリングすれば、被害を食い止められるはずです。仮に完全には食い止められなくても、最小限に抑えられるはずです。

かつてないほど高まるサイバーレジリエンスの重要性

被害に遭ってしまった場合の復元は、頻繁にバックアップを取り、いつでもバックアップからリストアできる体制を整えることが第一です。バックアップは最後の砦なので、単にバックアップファイルを保管するだけでなく、その健全性をチェックし、クリーンなバックアップファイルを確保したら、たとえ社内システムがマルウェアに侵されても、バックアップファイルだけは絶対に無傷で守られるようにしなければなりません。

これを実践するには、従来、推奨されていたバックアップの「3-2-1ルール」を補強して、Veeamの提唱する「3-2-1-1-0ルール」を徹底すべきです。「3-2-1-1-0ルール」とは、バックアップデータを3件、2種類のメディアに保存し、うち1件はオフサイトにする「3-2-1ルール」を以下のようにアップグレードしたものです。

  • ルール1:データは3バージョン保管する
  • ルール2:保管には2種類以上のメディアを使用する
  • ルール3:そのうち1つはオフサイトに保管する
  • ルール4:そのうち1つはイミュータブル(変更不可)あるいはオフライン(エアギャップ)にする
  • ルール5:リカバリ プロセスを定期的に検証してエラーを0にする

これを徹底すれば、万が一、社内に保管してあるメインのバックアップファイルがマルウェアに侵されてしまった場合でも、無傷のイミュータブルバックアップからリストアする最後の手段が確保されます。そして、ここでもっとも見逃されがちで、もっとも重要なのは「ルール5」です。たとえバックアップファイルがあっても、リストアプロセスが整っていなければ何も意味がありません。社内で手順と責任の所在を明確にし、それらを定期的に検証して、普段から予行演習をしっかり行っておく必要があります。

ほんの数年前までは、これは石橋を叩いて渡るようなセキュリティ体制だったかもしれません。しかし、敵がAIになってしまった今、これはもはや必要最低限のセキュリティプラクティスになったと考えるべきです。

レジリエンスはシステム上の問題にとどまりません。システムよりも人間のほうが重要といっても過言ではありませ。システムのモニタリングやバックアップは、プロトコルが既定されているので、企業はしっかりと手順に沿って進めればよいのですが、人の心を管理するのは曖昧で複雑です。一方、サイバー攻撃の侵入経路はフィッシングが最大リスクであり続けているし、シャドーAIのリスクが上昇中であることも前述のとおりなので、実際にはセキュリティの穴はシステムの脆弱性よりも、人間のミスや不注意に起因するケースが大半です。こればかりは、各企業や団体、あるいは政府が国を挙げて、人々のセキュリティ意識を高める教育を展開していくほかはありません。

AI基盤のセキュリティ強化は必須

企業が導入したAIシステムそのもののセキュリティも忘れてはなりません。昨今は、データポイズニングやプロンプトインジェクションにより、基盤となるAIモデルが侵される事例も増えています。以前は、LLM(大規模言語モデル)を汚染するのに必要な、悪意ある注入データ量は数百万件ほど必要だと考えられていましたが、最新の調査によると、250程度の文書や画像があれば、どのようなLLMでも汚染できることが証明されたと報告されています。つまり、ほんの数年前は高度なスキルを持ったハッカー集団が組織的に行うしか、AIモデルを標的としたサイバー攻撃は成功しなかったものが、この一、二年で、誰でもAIの誤作動を悪意を持って誘因できる時代になってしまったということです。

世界経済フォーラムのサイバーセキュリティセンターは、AIの導入時にセキュリティを設計に組み込むことを提言しています。データやアプリケーションのみならず、AIモデルとインフラストラクチャも含めたすべてのレイヤーにセキュリティ設計を組み込み、将来的にエージェントAIによる脅威分析やリスク回避の活用を拡張でき、新たな規制やコンプライアンスに対応できる仕組みを今から整えておくことが強く推奨されています。

たとえば、VeeamとSecuriti AIの統合は、まさにこのAIセキュリティを体現する仕組みの重要なオプションとなるはずです。

要するに、AIの悪用で拡大し続けるサイバー脅威に対抗するためには、人とデータとシステムを含めた総合的なサイバーレジリエンスを高め、そこにしっかりとAIを組み込むことが重要です。これは、セキュリティにAIを活用することと同時にAI基盤を保護すること、つまりAIを使うこととAIを守ることの同時進行を意味します。

2026年は、良くも悪くもAIによって別次元に進化したサイバーセキュリティに、正面から向き合わなければなりません。

関連トピックス

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

 

このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください