OpenAIは、人工知能から生じるますます複雑化するリスクの研究、評価、管理を担当する、リスクの準備と対応を担当する部門長を採用しています。
この情報は、CEOのサム・アルトマンがソーシャルネットワークXでの投稿で発表したもので、高度なAI技術の予想外の影響に対する同社の関心が高まっていることを示しています。
サム・アルトマン氏によると、現在のAIモデルは、いくつかの真の課題を提起し始めています。その中で注目すべきは、ユーザーのメンタルヘルスへの潜在的な影響と、AIシステムがコンピュータセキュリティ分野で非常に優れており、深刻な脆弱性を自動的に検出する可能性があることです。これらは技術的なリスクだけでなく、社会の安全にも直接関係しています。
アルトマン氏は、AIの力を世界が安全に活用できるようにするための共同の取り組みに参加する能力のある候補者を呼びかけました。
同氏は、二重の目標は、サイバーセキュリティ専門家に最先端のツールを装備すると同時に、それらの能力が悪意のある者に利用されるのを防ぐことであると強調しました。
同様のアプローチは、生物学や自己改善可能なシステムなどの他の敏感な分野にも適用されています。
職務記述書によると、この役職はOpenAIの準備フレームワークの展開を担当します。これは、企業が監視、評価、および制御されない場合に深刻な損害につながる可能性のある新しいリスクを生み出す可能性のある高度なAI能力の準備をどのように説明するかを説明するフレームワークです。
OpenAIは、潜在的なリスクを調査する任務を負ったこのグループの設立を2023年に初めて発表しました。
これらのリスクは、オンライン詐欺、サイバー攻撃などの差し迫った脅威から、より推測的だが大きな結果をもたらすシナリオまで広がっています。
しかし、1年も経たないうちに、当時の準備・対応部門の責任者であるアレクサンダー・マドリーがAI理論研究に焦点を当てる役職に異動しました。安全を担当する他のリーダーも会社を離れたり、新しい役割を引き受けたりしました。
最近、OpenAIは準備フレームワークを更新し、競争的なAI研究所が同様の保護措置なしに高リスクモデルをリリースした場合、同社は安全要件を調整できると述べました。
この動きは、競争圧力が安全基準を弱体化させる可能性があるかどうかについての議論を引き起こしています。
さらに、ChatGPTを含む生み出されたAIチャットボットは、メンタルヘルスへの影響についてますます厳格な監視を受けています。
最近の訴訟では、AIチャットボットは誤った認識を強化し、ユーザーの社会的孤立を高める可能性があると主張しています。OpenAIは、感情的なストレスの兆候を認識し、ユーザーを適切なサポートソースに接続する能力を継続的に改善していると述べています。
準備とリスク対応を担当する部門の責任者を探すことは、OpenAIが迅速な革新を継続し、AIが責任ある方法で開発および展開されることを保証する方法という大きな課題に直面していることを示しています。