YouMe有限責任法律事務所のホー・トゥ・チャン弁護士が回答します。
2025年人工知能法(2026年3月1日から施行)第14条第1項は、リスクの高い人工知能システムプロバイダーは、以下の責任を負うと規定しています。
a)リスク管理対策を確立および維持し、システムに重大な変更がある場合や新たなリスクが発生した場合に定期的に見直しを行うこと。
b) トレーニング、テスト、および運用データ管理は、技術的能力の範囲内で品質を保証し、システムの使用目的に適合します。
c) 使用開始後の適合性評価と検査に必要なレベルで技術記録と運用日誌を作成、更新、保管する。検査目的にふさわしく、事業秘密を漏洩しないことという原則に従って、これらの情報を管轄の国家機関に提供する。
d) システムに対する人間の監視および介入能力を保証するシステム設計。
d) 本法第11条および第12条の規定に従って、透明性と事故処理の義務を履行すること。
e) 使用目的、機能記述レベルでの運用原理、主要な入力データの種類、リスク管理および制御措置、ならびに検査および監査に必要な内容について、管轄の国家機関に対して説明責任を果たす。使用中の安全を確保するために、機能記述レベル、運用方法、およびリスク警告でユーザーおよび影響を受ける人に公開情報を提供する。説明および情報提供は、ソースコード、詳細アルゴリズム、パラメータセット、または営業秘密、技術秘密に属する情報を開示することを要求してはならない。
g)システムに関連する事故の検査、評価、事後検査、および是正において、管轄の国家機関および実施者と連携すること。
したがって、2026年3月1日から、リスクの高い人工知能システムプロバイダーは、上記のような責任を負います。
法律相談
迅速かつタイムリーな回答を得るには、法律相談ホットライン:0979310518、0961360559にお電話いただくか、tuvanphapluat@laodong. com. vnまでメールでお問い合わせください。
このコラムは、YouMe有限責任法律事務所の支援を受けて作成されました。