インフォグラフィックでみる「説明可能なAI」の正体
FUJITSU JOURNAL 2019年1月17日
https://twitter.com/FujitsuOfficial/status/1135472390891159552
現在の最先端AI技術である「ディープラーニング(深層学習)」でも、結論を導き出した理由を説明することまでは出来ないのだそうです。
つまり
AI「久弥は鹿」
人「は? なんで?」
AI「わからん」
というのが現状ということです。
その理由の説明を出来るようにする為に、意思決定の過程そのものを可視化したり、別方向から結論を立証できるAIを構築したり、と言った研究を各国や各社が子なっている、という話です。
AI「久弥は鹿」
人「は? なんで?」
AI「久弥は人ではなく神でありまた国立奈良公園での目撃情報があることから、奈良公園に住む神即ち鹿であることが証明されます」
という事が可能になるわけです。
素晴らしいですね。