本文へジャンプ メインメニューへジャンプ
国立大学法人群馬大学 理工学部・大学院理工学府
国立大学法人群馬大学 理工学部・大学院理工学府
ここからメインメニューです
ここでメインメニュー終了です
ここから本文です

お知らせ

【プレスリリース】「AI見守り公共空間」に対する,「AI出力の検証可能な記録」 というプライバシ保護概念を提案 ~一般市民,監査機関の検証で,AI systemの悪用・乱用を防ぐ~

プライバシを含む膨⼤な情報の⼊⼒を受けるAI systemが,出現しつつある.⼀般市⺠のプライバシを保護することは,⺠主主義国家にとって,重要な課題である.
本研究では,公共⽬的に使⽤されることが想定され,かつ,プライバシ侵害リスクが⽐較的に⾼いAI-systemとして,「AI接続されたカメラでモニタされた公共空間」を例にとり,プライバシ保護のための具体的な⼿法を検討する.「AI接続されたカメラでモニタされた公共空間」は,あらゆる地点が複数のAIに接続された街路カメラでモニタされる広範な公共エリアとして定義される.
群⾺⼤学⼤学院理⼯学府知能機械創製部⾨ 藤井雄作教授が、社会的に許容されうる「AI接続されたカメラでモニタされた公共空間」に実装される利活⽤⽬的として,(1) ⾏⽅不明のこどもの追跡, (2)⼦供が⾃宅でてから戻るまでの⾒守り, (3) 公共空間での異常な状況や事故の検知, (4) 犯罪者やテロリストの⾏動分析・検知の4つを取り上げる.これら4つの利活⽤⽬的により,社会安全が劇的に向上することを⽰した.
AI systemに対するプライバシ保護策としては,⼀般市⺠が安⼼できるようにするためには,確実な保護に加えて,万⼀の悪⽤・乱⽤を抑⽌する確実な記録・監査が必要条件であると考えられる.検証可能・改ざん不可能なAI outputの記録・公開のコンセプト「AI出⼒の検証可能な記録」を提案する.
「AI出⼒の検証可能な記録」は,Big Dataなどの膨⼤なAI inputの匿名化や,ブラックボックス化しているAI内部プロセスの制御などよりも,AI outputだけに対してルール適合性確認のみの単純な出⼝規制をかける⽅が,現実的ではないか,というアイデアに基づく.
「AI接続されたカメラでモニタされた公共空間」に「AI出⼒の検証可能な記録」を実装した具体例を提案する.「AI出⼒の検証可能な記録」においては,AI systemをoutbound firewall で包み込み,「事前に社会的議論を通して承認されている利⽤⽬的」に即していることが確認されたAI outputのみ送信許可される.そして,送信申請から送信許可に⾄る過程が,匿名化された上で,検証可能・改ざん不可能な形で公開される.この公開記録を,⼀般市⺠,監査機関が検証することで,AI systemの悪⽤・乱⽤があった場合に,確実に暴かれる.
本論⽂で提案した「AI出⼒の検証可能な記録」は,AI outputに関する確実な計測・記録,そして監査のための公開を⾏うことを特徴としている.これをテンプレートして,⼀般市⺠のプライバシを含むBigDataの⼊⼒を受ける他のAI systemへ適⽤する可能性についても検討する.

プレスリリース資料はこちら

関連リンク

藤井 雄作 教授 研究紹介はこちら
                        研究室HPはこちら


ここで本文終了です
ここからフッターです
ページの終了です