ベトナム教育出版社は、小学校1〜12年生向けのAIに関する教育書を完成させました。生徒の受容能力に適した知識フレームワークに従って設計され、理論と実践演習を組み合わせて、生徒がAIに適切に慣れるのを支援しています。
Lao Dongとのインタビューで、ホー・ドゥック・タン国家デジタル技術・変革研究所所長は、教育、特に小学校レベルでのAI普及は慎重に実施され、明確な目標があり、安全要因を最優先にすべきであると強調しました。タン氏は、「小学校にAIを導入することは、子供たちを若いエンジニアに変えるためではなく、生徒が安全かつ方向性のある方法でテクノロジーに慣れるのを助けるためです」と指摘しました。
タン氏は、小学生がChatGPTのようなツールを自由に使用することはできないと警告しました。なぜなら、子供たちは情報を選択および評価する能力が十分ではないからです。したがって、学校に導入されるすべてのAIアプリケーションは、安全性と倫理を確保するために検閲を受ける必要があります。
重要な方向性は、教師のスキルを身につけることに焦点を当てることです。教師は授業を設計し、生徒を指導し、クラスでのテクノロジー体験を制御する人です。シンガポールは、生徒が安全なAIの使用を理解するのに役立つ短いモジュールを構築しました。エストニアは教師の育成を優先しました。韓国は教科書をデジタルアプリケーションで早すぎる時期に変更しましたが、効果はありませんでした。
インフラの問題についても、タン氏は次のように明確に述べています。「都市部の生徒は早期にアクセスできるが、奥地や遠隔地は取り残されるため、同期していなければ不平等を引き起こすリスクがあります。したがって、実施は試験的に開始し、安全性を含めて慎重に評価してから拡大する必要があります。」
法的枠組みについて、タン氏は、ベトナムはAI法の制定を検討していると述べました。世界では、欧州連合、韓国、日本を含む特定の地域と国が法的枠組みを持っています。
リスク管理について、彼は3層の防衛戦略を提案しました。リスクの排除と分類 - 「リスクフィルター」、設計から安全を確保 - 「卵から安全」、およびシステムが「ブラックボックス」のように動作しないように、継続的な監視メカニズムと事故処理メカニズムを備えています。
この問題に直面して、多くの保護者がAIを学校に導入することを支持していますが、明確なロードマップ、厳格なガイダンスが必要であることを表明しています。ハ・リンさん(ハノイ)はトレンドを支持していますが、子供たちが乱用しないように大人の方向性を示す必要があることを懸念しています。同時に、彼女は学校と教師が事前に研修を受け、AIを教えることに常に倫理的責任と安全を結びつけるようにすることを提案しました。