これは、グローバルなサイバーセキュリティおよびデジタルセキュリティ企業カスペルスキーによって最近発表された重要な発見の1つです。
Kasperskyのグローバル調査分析グループ(GReAT)の責任者であるセルゲイ・ロジキン氏は、中東、トルコ、アフリカ、アジア太平洋地域を担当し、2023年にChatGPTがグローバルに普及して以来、彼らのサイバーセキュリティ専門家は、ビデオ作成などの通常のタスクから、脅威の検出と分析などの技術タスクまで、多くの目的に役立つAI(人工知能)の応用が急速に増加していることを認識していると強調しました。
しかし、反対に、悪意のある者もAIを利用してサイバー攻撃能力を高めています。「私たちは、AIが防衛の盾としての役割を果たすサイバーセキュリティと社会の新しい時代に入りつつあり、Dark AIはサイバー攻撃で危険な武器に変えられています」とセルゲイ・ロジキン氏は述べています。
Dark AIは、完全なシステムまたはチャットボットプラットフォームに限定されない大規模言語モデル(LLM)を、悪意のある、非倫理的な、または違法な目的でのみ展開することを指します。
これらのシステムは、安全、遵守、および管理管理に関する規制外で動作し、通常、厳格な監視なしに詐欺、操作、サイバー攻撃、またはデータマイニングなどの行為を実行することを許可します。
ロジキン氏は、現在のAI乱用の最も一般的な形態は、2023年半ばから浮上しているBlack Hat GPTモデルの出現であると述べました。
これらは、マルウェアの作成、詐欺メールの作成、大規模な攻撃と特定のターゲットをターゲットにする攻撃の両方に対応する、偽の音声やディープファクトビデオを作成するなど、非倫理的で違法な目的に役立つように開発または特別に調整されたAIモデルです。
Black Hat GPTは、完全にプライベートなAIモデルまたはプライベートな販売モデルの形で存在し、サイバー犯罪、詐欺、マルウェア自動化に役立つように設計されています。
組織がダークAIからの脅威に対する防御能力を強化するのを支援するために、サイバーセキュリティ専門家は次のように推奨しています。
- AIによって作成されたマルウェアを検出し、サプライチェーン内のリスクを制御するために、新世代のセキュリティソリューションを使用する。
- AIが制御する脆弱性を悪用する行為を監視するために、リアルタイム脅威情報ツールを応用します。
- 暗闇(Shadow AI)におけるAI現象とデータ漏洩のリスクを制限するために、アクセス制御と従業員のトレーニングを強化します。
- 脅威を監視し、事故に迅速に対応するためのサイバーセキュリティ管理センター(SOC)を設置します。