2016.12.20 Tue |
人工知能の未来予測―誰が責任を取るのか
前回の記事では、人工知能がインターネット上のあらゆる情報に基づき、収入、経歴はもちろん、思想や宗教、性的趣向など個人をラベリングすることが容易にできることを紹介しました。しかし、これらのラベリングが常に正しいとは限りません。このラベリングに間違いがあった時、誰が責任を取るのでしょうか。

この話は、人工知能が「今」を明確にするだけではなく、未来を予測することもできるという事実を考慮するとより議論の必要性が増します。未来の自分の姿という、本人たちにさえ分からないものも人工知能なら予測できてしまうのです。しかし、「今」の個人についてのラベリングと同様、未来についての予測も当然間違いが起こりえます。
問題はその予測の責任を誰が取るのかということです。人工知能が運転する車が交通事故を起こしたら、その責任は誰が取るのかというのはよく議論されるテーマです。それと同様に、人工知能は事実と違う(もしくは公表する必要のない)人間の思想・心情・未来を明らかにするかもしれません。将来テロを起こすといった人物が本当はテロなどとても起こさない人間かもしれません。いずれにしてもそれが本当ではないと証明するのはきわめて困難を極めます。
