
最近発表されたブログの投稿で、研究所は一貫したフィードバックを持ち、再生可能なAIモデルを構築するプロジェクトを紹介しました。
この記事のタイトルは「LLMの推論の不確実性に対抗する」(LLMは、言語の作成と他の自然言語処理タスクにおける全体的な機能を備えた言語モデルです。LLMは、高度な複雑さと計算能力を備えた自己監視および準自己監視の訓練プロセスにおける文書から統計関係を学習することによってこの能力を得ます)。コミュニティによると、これはもともとAIの本質ですが、Thinking Machinesはそれを克服可能な問題と見なしています。
実験室の研究者であるホラス・ヒ氏は、ランダムさは推論プロセスの配置に起因すると主張しています。彼は、調整層(GPU)を厳格に管理すれば、モデルはより決定的になり、それによって安定した結果が得られる可能性があると主張しています。
Thinking Machinesによると、企業や科学者がより信頼性の高いフィードバックを受け取るのを助けることに加えて、モデルを安定させることは、学習強化(RL)プロセスも改善します。なぜなら、RLは正しい回答に対する称賛を必要としますが、フィードバックが毎回異なる場合、データは妨げられるからです。一貫したフィードバックは、RLをよりスムーズにするのに役立ちます。The Informationの情報源によると、同社はRLを使用して企業向けのAIモデルをカスタマイズする計画も立てています。
OpenAIのテクノロジーディレクターだったムラティ氏は、Thinking Machinesの最初の製品は数ヶ月以内に発売され、研究者やスタートアップがカスタムモデルを開発するのに役立つと明らかにしました。しかし、この製品が何であるか、および再生応答に関する研究を適用するかどうかはまだ不明です。
研究所はまた、一般の人々に利益をもたらし、内部研究文化を改善するために、ブログ記事、ソースコード、研究資料を定期的に公開すると断言しました。この方法は、OpenAIがオープンな研究を追求していた初期段階、規模の拡大とともにより控えめになる前の段階を思い出させます。