こども家庭庁は、児童相談所が虐待を受けた子どもを一時保護すべきか否かについてのリスク判定について、AIを導入する施策について、今年度の導入を延期すると決めたという。
このAI導入に、これまで開発費として総額約10億円を投入してきたそうだ。
試作モデルとして、10自治体の100事例を試行的に検証したところ、児童相談所の判断とは異なる判断となる結果が出たという。
よって、今年度の導入を延期した。そして、今年度の補正予算としては、児童相談所での面談記録の文字起こし、要約のツール開発への予算を計上したという。
この記事を読みながら呆れた。
どうして、このような「判断」をAIに任せられると考えたのだろう?
現場を知らなさすぎる。現場をバカにしている。
虐待された子どもの保護とは、そんな簡単なものではない。その判断を不服に思う保護者たちの強烈な抗議にあうこともある。その時に、「それはAIがそう判断したからです」などと言えるだろうか?
「デジタル庁か子ども家庭庁かの手柄づくり」のための施策なのではないだろうか?
現場から、この重要な判断について、AIに任せたいといった声が出たとは思えない。
むしろ、現場を知らないデジタル庁か子ども家庭庁か何かが、自分たちの手柄をつくるために、現場を理解することもなく、安易にAIの利用を推し進めようとストーリーを作って開発費を確保してきたとしか言いようがない。
確かに、児童相談所の職員の仕事の量、その判断への圧力は非常に大きいものがある。しかし、虐待された子どもが保護されるべきか否かという、つまり、極めて重要で守られなければならない親子関係を一時的にでも停止することを判断するという、極めて責任の重い、極めて重要な判断をAIに任せるということは、虐待された子どもを保護するという重い責任と重要性を放棄することに他ならない。
それはあり得ない。
そして、そのようなAIの利用はあり得ないということが、どうして最初の時点で判断できなかったのか?
AI兵器の法的責任についての議論は、すでに国際的に始まっているが、それと同じことである。
たとえ児童相談所の職員の仕事がどれだけ厳しいものであっても、この判断だけは、人間以外に託してはならない。その責任を放棄してはならない。
怖いのは、そのような判断ができなくなっている、今の日本政府の判断だ。
子ども家庭庁は、そのような判断すらできなくて、大丈夫か?
コメント