(Continuation from yesterday)
制御系のプログラムであれば、挙動がゼロになるとか、無限大まで発散するとかの現象で見つけることができることがあります。
If the program is for a control system, I could find the wrong algorithm of the program by a phenomenon of strange system behavior, for example, halt or uncontrolled system.
しかし、推論エンジンなどは、推論をさせるものです。そもそも事前に正解が分からないのですから、デタラメな推論していても、発見されにくいのです。
On the other hand, in case of a reasoning system, whose purpose is "reasoning", we cannot know the correct answer in advance. So if the output of the reasoning system become a mess, nobody cannot notice the mess.
-----
学生時代、私は、担当教授の進めもあって、人工知能研究(当時のファジィ、ニューラルネットワーク)のチームを立ち上げました(最初は一人からスタート)。
When I was a college student, I started an AI team (fuzzy and neural network) alone at the beginning, in view of my tuition in attendance.
当然、立ち上げたばかりですので、実績のある推論エンジン用のライブラリもなく、私は、論文や文献を漁って、自分でゼロから推論プログラムを作らねばなりませんでした。
Of course, the beginning period, there was no time-tested reasoning engine around me, so I had to make a reasoning engine with reading a lot of papers and books from scratch.
私は、チームのリーダとして、ソースコードを共有することなく、全員にゼロから自分専用の推論エンジンを自作させていました(私のコードをコピーさせることはしなかった)。
As the team leader, I asked members of the team to make a reasoning engine by themselves. I didn't open my codes to anyone.
「コーディングをすれば、その推論アルゴリズムを理解することができる」と、考えていたからです。
I thought that "the coding is good to understand the reasoning algorithm".
しかし、この私のポリシーが、意外な落し穴だったのです。
However, the above my policy was to fall into a pit.
-----
と、ここまで書いて気がつきました。
Now I notice that
―― このネタ、次の連載に使える
This story is available for the next serial of "AI".
と言う訳で、この続きは、次回の連載に記載させて頂きたいと思います。
I will continue this story on the next the serial.
悪しからずご了承下さい。
Please don't think badly of me.