「暴言」を吐くAIチャットボット
「人種差別」をする犯罪予測AI
「男女差別」をする人材採用AI・与信審査AI……
AIの「暴走」をどう防ぐか?
「技術」「ブランド」「ガバナンス」「組織・人材」
4つのアプローチで「責任あるAI」を実現する
「責任あるAI」のベースにあるのは
「人間中心」のデザインであり、人間が意思決定の中心となることである。
「責任あるAI」実現のために守るべき規範が「AI倫理」である。
【主要目次】
Part1「責任あるAI」「AI倫理」とは何か?
●なぜ今「責任あるAI」が重要なのか?
・デジタルツインの波とAI
・労働生産性におけるAIの貢献
・意思決定におけるAIの役割
●求められる「AI倫理」とは?
・アシモフの「ロボット工学原則」と抜け穴
・AIのガイダンス制定の世界的な流れ
●AIの潜在的リスクに備える4つの観点からのアプローチ
・AIに混入する潜在的リスクとは?
・各産業分野におけるAI適用と考えうるリスク
Part2「責任あるAI」を実践する4つのアプローチ
●技術のリスクを防ぐアセスメントの方法
・AIの開発プロセスで忍び寄るリスク
●ブランド価値を守り、高めるESGアプローチ
・ESGによるブランド価値の創出・向上
●ガバナンスにおける効果的な「火消し」の方法
・AIガバナンスのロードマップ
●組織・人材に「AI倫理」を根付かせる
・研修プログラムとコミュニケーション
・具体的事例を用いた演習