2024年6月21日(金)14:00~16:00にオンラインで、テーマを「AIのリスクを考える:生体認証技術から生成AIまで」として開催しました。共催は大阪大学社会技術共創研究センター(ELSIセンター)でした。
2022年秋のChatGPTの公開以降、急速に普及している生成AIをはじめとするAI技術のリスクを取り上げ、リスク学がどのように貢献できるかを検討することを目的に開催されました。岸本からは、AIリスクの特徴として、EUのAI法案をとりあげ、「守りたいもの」が人権や民主主義など、これまでのリスク学が正面から扱ってこなかったようなものにまで拡大していっていることや、それにもかかわらず「リスクベースのアプローチ」や、ISO 31000を参照したリスクマネジメントプロセスの導入が必須になっていることを紹介しました。カテライは、生成AIの倫理的・法的・社会的課題(ELSI)リスクの文献レビューを通して8つのリスクを抽出し、そのうちのバイアス、プライバシー、情報環境への影響、高度なAIシステム特有のリスク、自然環境への影響について紹介しました。田中からは、AIの応用技術の1つである顔認証技術について開発されたリスクアセスメントの枠組みとその実践例が紹介された。工学的なリスクアセスメントと異なり、客観的な正確性ではなく、プロセス由来の正当性で、妥当性を担保するという点が強調されました。
●講演(資料を掲載しています。)
・岸本充生(大阪大学):AIリスクのガバナンスの動向とリスク学の貢献可能性
・カテライ・アメリア(大阪大学):生成AIのELSIリスクの概要
・田中孝宣(大阪大学、NEC):顔認証入場管理システムのリスクアセスメント事例
●質疑応答とディスカッション
約130名が参加し、たくさん質問が寄せられました。主な質問の要旨を並べました。
・許容できる/できないの判断とAIのもたらすベネフィットの関係。ベネフィット評価手法の開発。
・AIリスクが顕在化した際に誰が(金銭的)負担を引き受けるのか。
・AIのデュアルユースのリスクに関する検討状況
・システム導入とリスクアセスメントの順番や義務付けの可能性
・AI Safetyに関して、リスク学者が取ることのできるアクションは何か
・生成AIのアウトプットに表れるバイアスと人間社会のバイアスの関係
・生成AIのエネルギー消費量・CO2排出量は、定量的な比較がすでになされているのか
・アジャイルなリスクアセスメント・マネジメントプロセスは可能か
・AIのリスクアセスメントに必要なコストの大きさ