AIはすでに企業の業務運営に不可欠な要素となっています。ワークフローや意思決定、セキュリティ運用に組み込まれ、AIは実験段階から実用段階へと移行しつつあります。
Ponemon Instituteと共同で実施した最新のグローバル調査では、その実態が明らかになっています。企業の半数以上が、何らかの形で生成AIをすでに導入していると回答していますが、その導入ペースは、管理に必要な統制やシステムの整備よりも速く進んでいます。また、サイバーセキュリティ上のリスクを明確に把握し、積極的に管理しているという「AI成熟度」のレベルに達していると回答したのは、回答者の約5人に1人に過ぎません。残りの企業は、AIがすでに利用されているにもかかわらず、その基盤整備をまだ進めている段階にあります。
今、そのギャップが現実のリスクを生み出しています。
導入の制約ではなく制御の問題
AIを取り巻く勢いは衰える気配がありません。企業は迅速に動き、ユースケースを見つけ出し、AIツールを業務全体に実装しています。
一方で、導入後のAIシステムをどのようにガバナンスしていくかについては、取り組みにばらつきがあるのが実情です。
私たちは世界中のITおよびセキュリティ分野の実務担当者約1,900人を調査しましたが、AI管理においてリスクベースのアプローチを導入していると回答したのは半数未満でした。また、AIに特化したデータプライバシーポリシーを整備していると答えたのは41%にとどまりました。
同時に、彼らが直面しているリスクは、AIの仕組みそのものに深く関わる本質的な課題です。
- 62%が、AIモデルのバイアスや倫理的リスクの低減が難しいと感じている
- 58%が、誤解を招く、または有害な出力につながるプロンプトや入力に関するリスクへの対応に苦労している
- 56%が、誤情報の拡散など、ユーザー起因のリスク管理に課題を抱えている
適切な統制がなければ、こうしたリスクは最終的にセキュリティ上の問題へと発展していきます。
セキュリティへの影響が顕在化するポイント
企業はセキュリティ運用の高度化を目的として生成AIを導入していますが、その一方で、約6割が「プライバシーやセキュリティコンプライアンスの対応がむしろ難しくなっている」と回答しています。また、AIモデルのバイアス、不安定な出力、データ品質や不完全なデータに起因するエラーといった課題も依然として指摘されています。
こうした信頼性の欠如は、AI活用に対する制約となっています。実際、51%の組織が「AIを適切に統制するためには人による監督が不可欠だ」と回答しています。これは好みの問題ではなく、現時点ではAIシステムを完全に自律的に運用できるほど信頼できないという現実を反映したものです。
AIは業務プロセスに組み込まれつつありますが、強固な基盤がなければ、その成果は一貫性を欠くものになってしまいます。
導入とセキュリティのギャップを埋めるために
AIがもたらす価値はいまなお大きく、企業は今後もその活用を拡大していくでしょう。課題となっているのはAIそのものではなく、それを支える基盤が追いついていないという点です。
セキュリティ、ガバナンス、情報管理は、付加的な要素ではありません。AIシステムが正しく機能するための中核であり、問題が顕在化してから後付けで対応するのではなく、最初から組み込む必要があります。
意図的かつ安全なAI活用を実現するためには、以下の4つの柱が不可欠です。
- アイデンティティおよびアクセス管理
AIエージェントが企業全体でより多くの業務を担うようになる中で、組織はそれらを人間の特権ユーザーと同様に扱う必要があります。OpenText Identity Core Foundationは、非人間IDやAIエージェントに対してもアイデンティティとアクセス制御を拡張し、最小権限の原則を徹底しながら、アクセス可能な情報や実行可能な操作に明確なポリシーガードレールを設けることを可能にします。これにより、自律的なAIの活動に対しても、初期段階から強力な統制を確保できます。 - データセキュリティ
多くの企業にとって最大の懸念は、AIが「何を生成できるか」だけではありません。AIが「何にアクセスし、何を露出し、変更し、移動させることができるのか」が重要です。OpenText Data Privacy & Protection Foundationは、データ中心のセキュリティ制御により、機密データ、データリポジトリ、個人情報(PII)を保護し、AIが適切な情報を、適切な保護のもとで扱えるようにします。これは、AIが業務に深く組み込まれるにつれて高まるプライバシー・コンプライアンス・データ整合性リスクを低減する上で極めて重要です。 - 脅威検知と対応
エージェントが自律的に動く時代において、セキュリティチームは人の行動だけでなく、エージェントの挙動も可視化する必要があります。OpenText Core Threat Detection and Responseは、ユーザーやAIエージェントのアクティビティをリアルタイムで監視し、通常とは異なる行動や承認されていないポリシー逸脱を検知、迅速に調査することを支援します。こうした継続的なモニタリングは、AIの自律性が高まる中で信頼を維持するために不可欠です。 - アプリケーションセキュリティ
AIのセキュリティは、ソフトウェア開発の上流工程から始まります。OpenTextのアプリケーションセキュリティソリューションは、AIを活用したワークフローを支えるコードやアプリケーションに、設計段階からセキュリティを組み込むことを可能にします。これにより、脆弱性を開発の早い段階で特定・対処できます。AIがより多くの基幹業務システムに組み込まれていく中で、この「セキュア・バイ・デザイン」のアプローチはますます重要になります。
これら4つの柱――管理されたアイデンティティ、保護されたデータ、継続的な監視、そして安全なアプリケーション――が組み合わさることで、企業は責任あるAI活用のための強固な基盤を構築できます。それこそが、AIの試験的導入から「信頼できるAI」へと進化するための道筋です。
OpenTextとPonemon Instituteによる調査レポートの全文はこちらからご覧いただけます。