世界中の金融管理機関は、銀行や金融機関がこの技術の応用を強化するにつれて、人工知能(AI)に関連するリスク監視を強化しています。
その中で、米国、中国、および他の多くの国々は、革命的な機械学習技術の開発をリードするために競争していますが、監視機関は財政の安定に対する潜在的なリスクについて警告しています。
G20のリスク監視機関である金融安定委員会(FSB)は、多くの組織が同じAIモデルと専門的なハードウェアを使用しているため、代替ソリューションが不足している場合、群集行動を引き起こし、抜け穴を生み出す可能性があると述べています。
FSBの報告書は、「この過度の依存は、金融業界でシステムリスクを生み出す可能性がある」と強調しています。
さらに、国際決済銀行(BIS)は、中央銀行、金融管理機関、監視機関がAI能力を向上させる必要があると警告しています。
BISによると、金融システムに対する技術進歩の影響を明確に理解するために、技術の観測と使用能力を向上させる必要があります。
AIは銀行がより効率的に働くのに役立つと期待されていますが、FSBは、この技術は市場の緊張を拡大する可能性があるとも指摘しています。
しかし、現在、AIが促進する市場の相関関係が市場結果に直接影響を与えるという実証的な証拠はまだ少ない。
さらに、金融機関もAIに関連するサイバー攻撃と不正行為のリスクに直面しています。
一部の地域では、AI管理メカニズムの確立を開始しました。その中で、欧州連合は、金融分野におけるテクノロジーリスクの監視と制御能力を強化するために、今年の1月から施行されたデジタルリダイレクト法(DORA)の一例です。
概して、AIは金融業界にとって重要な革新ツールと見なされていますが、同時にリスク管理に関する大きな課題も提起しており、世界中の監視機関はシステムの安全と安定を確保するためにタイムリーに行動する必要があります。