メタはつい最近、人工知能(AI)部門の従業員600人、リスク評価グループの従業員100人以上を含む大規模な人員削減を実施した。これらは全員、かつてユーザーのプライバシーを監視し、世界的な規制を遵守する責任を負っていた人々です。
Meta の AI ディレクターである Alexandr Wang 氏が従業員に送った内部メモによると、この人員削減は、会社がより迅速に意思決定を行い、より迅速に新製品を開発できるようにするためであると説明されています。
Alexandr Wang氏は、装置を縮小することで議論の層が減り、AIエンジニアリングチームが製品の展開においてより柔軟に行動できるようになると述べた。
しかし、メタ社はAI部門の再編と並行して、同社のすべての製品が米国連邦取引委員会(FTC)や国際安全保障機関の規制に準拠していることを保証するリスクおよびプライバシー管理グループの従業員100人以上を解雇した。
これは、2019年のケンブリッジ・アナリティカスキャンダルの後、重要な役割を果たしたグループであり、その際、Meta(当時はFacebook)がユーザーのプライバシーを侵害したとしてFTCから最大50億ドルの罰金を課せられた。
Metaの最高セキュリティ責任者であるMichel Protti氏は社内メッセージの中で、同社がこれまでのように各製品を手動で検閲するのではなく、自動リスク評価モデルに切り替えることを認めた。
ミッシェル・プロッティ氏は、これによりシステム全体でより正確で一貫したコンプライアンス結果が保証されると述べました。
しかし、多くの現従業員や元従業員は、特に個人データに関わる複雑で機密性の高い問題に対処する場合、自動化システムの有効性について懐疑的です。
内部情報筋によると、解雇された人々は主にロンドン支社で働いていた一方、王氏自身が率いる人工知能(AGI)研究グループであるTBD Labs部門はそのまま残され、引き続き多額の投資を受け続けていることが明らかになった。
一方、メタ社で8年間研究ディレクターを務めたユアンドン・ティアン氏など、FAIR研究チームの多くのベテランも解雇された。
アナリストらは、このダブルカットはMeta内の2つの相反する傾向を反映していると述べている。1つはOpenAIや他のAI競合他社と競争するために迅速にイノベーションを起こしたいという欲求である。もう一方では、規制順守とユーザー保護の責任があり、メタ社は米国と欧州の規制当局から厳しい監視下に置かれています。
Metaの広報担当者は、同社は高いコンプライアンス基準の維持に努めながらも、プログラムの成熟度やイノベーションの加速を反映するために組織構造を定期的に調整していると述べた。
しかし、多くの専門家は、リスク監視において人間をアルゴリズムに置き換えることで、メタ社が製品開発のスピードとプライバシーを引き換えにする結果となり、このソーシャルネットワークに多大な代償を支払わせた過ちを繰り返すリスクが生じる可能性があると警告している。