2016.12.20 Tue | 人工知能の未来予測―誰が責任を取るのか 前回の記事では、人工知能がインターネット上のあらゆる情報に基づき、収入、経歴はもちろん、思想や宗教、性的趣向など個人をラベリングすることが容易にできることを紹介しました。しかし、これらのラベリングが常に正しいとは限りません。このラベリングに間違いがあった時、誰が責任を取るのでしょうか。 この話は、人工知能が「今」を明確にするだけではなく、未来を予測することもできるという事実を考慮するとより議論の必要性が増します。未来の自分の姿という、本人たちにさえ分からないものも人工知能なら予測できてしまうのです。しかし、「今」の個人についてのラベリングと同様、未来についての予測も当然間違いが起こりえます。 問題はその予測の責任を誰が取るのかということです。人工知能が運転する車が交通事故を起こしたら、その責任は誰が取るのかというのはよく議論されるテーマです。それと同様に、人工知能は事実と違う(もしくは公表する必要のない)人間の思想・心情・未来を明らかにするかもしれません。将来テロを起こすといった人物が本当はテロなどとても起こさない人間かもしれません。いずれにしてもそれが本当ではないと証明するのはきわめて困難を極めます。 「今」についてであれば、今の自分を何らかの形で示すことで人工知能が出した結論が間違いであると主張できるかもしれません。(それでも嘘をつくかもしれない人間よりは、意図的には嘘をつかない「機械」である人工知能のほうが、信頼性が高いとされ、人工知能が間違っていると主張するのは難しいでしょう。) しかし、まだ誰も分からない未来の予測が間違っていることを、その予測が起きる時点より前の現時点で示すことは非常に困難で、間違っているか合っているわからない情報をあたかも必ず合っているかのように人間は受け取ってしまい、惑わされるのです。 「人工知能は完全ではない」―その認識をどこまで世論が持てるのか。結局情報の最終判断は人間がすべきなのですが、皮肉なことにその情報判断を狂わせてしまうのは精度の高い人工知能を信頼しすぎてしまうことなのです。 石井大智 慶応大学SFC 2年 一般社団法人Bizjapan