人工知能が人類にリスクをもたらす可能性があるなら、ジーコ・コルター教授はそれを制御する最も重要な役割の1つを果たしている。
同氏はOpenAIの安全・セキュリティ委員会の委員長を務めており、同委員会には、悪者が武器を作るために使用できるモデルから、人間の精神的健康に悪影響を与えるチャットボットに至るまで、セキュリティ不安のリスクを認識した場合、あらゆるAIシステムのリリースを阻止する権利がある。
コルター教授は、同教授のチームは人間に影響を与える重大な問題についてのリスクや懸念を管理するだけでなく、AIの適用がますます広範になるにつれ、安全性、セキュリティ、社会的影響といった問題全体にも焦点を当てていると述べた。
コルター氏は1年以上前に任命されたが、最近カリフォルニア州とデラウェア州が法的協定にコルター氏の監督権限を盛り込み、OpenAIが公益モデルに再構築できるようになったことから、この立場は特に重要になっている。
合意によると、AIの安全性とセキュリティに関するすべての決定は、経済的利益よりも優先される必要がある。 Kolter 氏は営利企業の取締役ではありませんが、OpenAI の安全性に関する決定に関連するすべての情報に完全にアクセスできます。
彼と一緒に、元米国サイバー軍司令官ポール・ナカソネを含む他の3人のメンバーがいる。彼らの存在は、OpenAI がテクノロジー リスクの管理において目指す厳格さのレベルを示しています。
ジーコ・コルター氏(42歳)はカーネギーメロン大学のコンピューターサイエンスの教授であることが知られている。彼が機械学習の分野に参入したのは 2000 年代初頭で、当時 AI はまだほとんどの人が理解しておらず、現実から程遠い概念でした。
その時点から、彼はディープ ラーニングと AI セキュリティの第一人者となり、2015 年の初期立ち上げから OpenAI をフォローするまで、多くの主要な研究室と協力してきました。
コルター氏は、AI開発のスピードはあらゆる予測を上回っており、サイバーセキュリティーやデータから生物兵器の製造を支援するAIの能力に至るまで、前例のないリスクにつながっていると述べた。
「そして最後に、メンタルヘルスと人間の行動に対するAIの影響がありますが、これについては私たちは完全には理解していません」とコルター教授は述べた。
OpenAIは、ChatGPTを立ち上げた後、製品を市場に投入するのが早すぎて主導的地位を維持できなかったとして非難された。 2023年にサム・アルトマン最高経営責任者(CEO)が一時解任されたことで、同社が営利目的の使命を無視したのではないかという疑惑がさらに高まった。
それ以来、コルターと安全委員会の役割は国民の信頼の盾となった。コルター氏はモデルリリースの遅延について詳細は明らかにしなかったが、「リスクが軽減されるまで、リリースの一時停止を要請する可能性がある」と認めた。
AIの商業化の波の中で、ジーコ・コルターのような人物の存在は、技術革新が社会的責任と密接に関係しなければならないことを思い出させてくれます。
なぜなら、彼にとってAIは単なる利益を生み出すツールではなく、人類の未来を形作る力だからです。