最近のThe Tucker Carlson Showでの会話で、OpenAIのCEOであるサム・アルトマンは、ChatGPTを含む人工知能モデルが、危険な生物学的脅威を設計するために悪用され、COVID-19と同様のパンデミックを引き起こす可能性について深い懸念を表明しました。
アルトマン氏は、AIは現在、生物学の分野で非常に優れており、これは機会とリスクの両方をもたらすと考えています。
「ご存知のとおり、AIがCOVID-19と同様のパンデミックを引き起こす可能性があることは、常に私を心配させています。しかし、懸念から、当社と業界の多くの関係者は、このリスクを軽減する方法について慎重に検討し、効果的な方向性を探しています」とアルトマン氏は強調しました。
上記の懸念は、高度な言語モデルの進歩と密接に関連しています。OpenAIがGPT-5を発表したとき、同社は安全メカニズムの詳細を公表しました。その中には、AIが悪意のある目的で乱用されるリスクを防ぐための多層生物学的防御システムが含まれています。
生物学的脅威に加えて、AltmanはChatGPTが人間の行動に与えているより洗練された影響も指摘しています。彼はそれを「社会規模の効果」と呼び、多数の人々がモデルと相互作用し、言語、書き方、または思考における新しい習慣を徐々に形成します。
Altmanは、ChatGPTの多くのユーザーがテキストで横線(—)をより多く使用し始めた現象を例に挙げています。これはかつてあまり一般的ではありませんでしたが、オンラインの文章で徐々に頻繁に現れ始めており、AIが作成したテキスト認識の兆候と見なす人もいます。
アルトマン氏によると、これは些細なことですが、AIが前例のない方法で社会行動を形作ることができることを証明しています。
「私たちは挑戦に満ちた新しい世界に入っています」とアルトマン氏は結論付けました。
人工知能の急速な発展に伴い、アルトマンの警告は、この技術が脅威になるのではなく、人類の利益に役立つように、グローバルな管理および安全メカニズムの構築に関する緊急の要求を提起しています。