昨日の日記で、「パソコンを使えない人にとっての暗い未来」を記載しました。
In yesterday's diary I wrote "Dark future for people who can not use PC".
このような未来予測に対しては、『だからこそ、対話型AIが・・・』という話で反論されるケースが多いです。
For such a future prediction, some people try to argue in the story that "interactive AI should be needed...".
もちろん、私も「対話型AI」には期待しています。
Of course I also expect "interactive AI".
"Google Home"等は、この未来への大きな一歩になっていると思います。
I think that "Google Home" etc. is a big step toward this future.
私は「AIの暗い未来」のコラムの連載をしていますが、10年後、20年後の人が、私のコラムを読んで、『私を、"愚かなペシミスト"として笑い者にされる』ことが、もっとも素晴しい未来です。
I am serializing the column of "AI's dark future", however I believe that future persons will read my column and make me laugh as "stupid pessimist" after ten and twenty years.
That is the most wonderful future.
-----
とは言え、私は、この『だからこそ、対話型AIが・・・』には、大きな嘘があると思っています。
However, I think that there is a big lie in this "why, interactive AI ...".
そもそも、AI技術は論理(ロジック)の塊です。
Initially, AI technology is a mass of logic.
論理的に整合のとれないモノやヒト(論理破綻したクレーマ)に対しては、何もできません。
AI technology can not do anything for things or humans of "logic failure" (e.g extralogical complainer) that can not be logically matched.
「そこをなんとかするのがAIだろう?」という意見は(気持ちとしては)分からなくもありません。
I can understand the feeling "That is a significance of existence of AI isn't it ?"
しかし、その場合、―― いいですか、ここが大変重要です ―― AI技術は、
But, in that case - you see, here is very important -
―― その「論理破綻」の論理(ロジック)を、論理的に解析しなければならないのです
AI technologies must logically analyze the logic of that "logic failure"
(To be continued)