AI事業者側がリスク開示 安全確認の国際的な枠組み開始
先進7カ国(G7)がまとめた人工知能(AI)の開発事業者らに求める行動規範に基づき、事業者側が生成AIのリスクや対応状況などを自主的に開示する取り組みが7日に始まった。利用者が安全性を確かめられる国際的な枠組みで、普及が進む生成AIへの不安を和らげる狙いがある。
経済協力開発機構(OECD)が7日、ウェブサイトに事業者らへの質問票を掲載した。事業者側は、テロ目的の利用や偽情報の拡散といった具体的な悪用リスクの報告、リスクの管理や軽減に向けた方策、企業統治の状況など7項目を回答する。内容や事業者名はサイトで公開される。
総務省によると、取り組みに参加するかどうかは事業者の判断に委ね、OECDが回答の中身を評価することもない。
日本や米国、欧州各国のほか、AIの研究が盛んなシンガポール、インドなど約50カ国の事業者や組織が対象となる。
高性能の生成AI開発で話題となった新興企業「DeepSeek(ディープシーク)」を抱える中国は対象外という。