中国の科学者たちは、人間の脳の視覚処理構造からインスピレーションを得た新しいタイプの神経シミュレーションチップの開発に成功しました。これにより、ロボットは人間の目よりも4倍速く動きを検出できます。
この技術は、自動運転車、サービスロボット、およびリアルタイムで対応する必要のある多くの自動化システムにおいて大きな進歩を生み出すことが期待されています。
このチップは、北京大学と北京工科大学の研究グループによって開発され、側網膜核(LGN)の動作原理に基づいており、網膜と視皮質の間に位置する構造です。
人間の脳では、LGNはトランジットステーションおよび情報フィルターとして機能し、視覚系が動きやすく変化の速い物体に集中して処理するのを助けます。
研究グループによると、このメカニズムが半導体チップ上の人工神経モジュールの設計にインスピレーションを与えました。
従来のカメラシステムのように各フレームを静止的に処理する代わりに、新しいチップは時間の経過に伴う光の変化を直接検出し、それによって発生した瞬間に動きを特定できます。
通常のロボット視覚システムでは、カメラは一連の画像を記録し、フレーム間の明るさの変化を比較して動きを認識します。
この方法は非常に正確ですが、大幅な遅延があり、通常、フレームを処理するのに0.5秒以上かかります。
自動運転車のような高速アプリケーションでは、このわずかな遅延が危険因子となり、事故のリスクを高める可能性があります。
新しいニューラルシミュレーションチップは、システムがフレーム全体ではなく、動きが発生している領域に処理能力を集中させることで、この問題を解決しました。
ロボットアームの運転と制御をシミュレーションしたテストでは、処理の遅延は約75%減少しましたが、動きを追跡する精度は複雑なタスクを実行すると2倍になりました。
特筆すべきは、チップの動き検出能力が以前の方法よりも4倍速く、場合によっては人間の目の反応速度を上回ることさえあることです。
研究グループは、脳の画像処理の原則を半導体ハードウェアに適用することが、この進歩を達成するための鍵であると考えています。
新しい技術は、自動運転車の衝突回避システム、無人航空機でのリアルタイム目標追跡から、人間のジェスチャーに即座に応答できるロボットまで、幅広い応用可能性を秘めています。
家庭環境では、チップはロボットが顔の表情や手の動きなどの小さな変化を認識するのに役立ち、人と機械のやり取りをより自然にします。
しかし、研究者たちはまた、チップは最終的な画像を解釈するために光学トラフィックアルゴリズムに依存しており、同時に動きが多すぎる環境では困難に直面する可能性があることを認めています。
それにもかかわらず、これは依然として機械視覚とハードウェア人工知能の分野における重要な進歩と見なされており、周囲の世界にほぼ即座に反応するロボットの開発の方向性を開きます。