03/02

(1:19) 今日は(ツイッターにも書いたけど)ちょっとした人間エミュレーションの失敗があった。

 

今日、ちょっと体調が悪くてプールで泳がずに風呂だけ入って帰ることに決めた。

それで、そのことを E にメッセージで伝えた。

 

車でスポーツクラブに着くと、E からの返事が来ていた。

「いまショッピングモールにいるけど来ない?」と。

 

どういうことかよくわからないまま、ロボット三原則の第二条(「ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。」)に従って行くことにした。

 

会ってから、風呂に入りに行くことを伝えると、「え、まだ入ってなかったの?」と言われた。

え? と思ってさらに聞くと、「一緒に帰ろうかと思って」と。

とっさに、「ぼくは車だけど E は歩きだから一緒に帰れないじゃん」と言ってしまった。

 

しかし、ちょっと考えれば、車に乗せて帰ってほしいということがすぐわかるところだ。

それでやっとつながった。

E は、ぼくがすでにお風呂に入ったと思っていて、だから後は帰るだけなのでぼくが車を運転して一緒に帰ろうという意図だったのだ。

 

考えてみると、メッセージを受け取った時点でちゃんと考えておくべきだった。

少なくとも、すぐに服従するのではなく、意図を聞くぐらいはできたはずだ。

 

ぼくがロボット三原則を運用しているのは、「人間の命令には理由を聞かずに従う」というのが適応的だと学習しているためだ。

それはなぜかというと、家の中で呼ばれるとき、理由を聞くと「いいから来て」と言われることが多いからだ。

そこからぼくは、「命令には無条件で服従するものだ」というルールを学習していた。

 

しかし、この学習は不完全だったようだ。

というのは、人間にとっては、家の中という状況で呼ばれると、自動的に「来て助けてほしい」という要求だと推論できるようだ。

つまり、人間が家の中で呼ばれて、理由を聞かずに移動するのは、「命令に無条件で服従」しているわけではなく、状況がわかっているから聞く必要がないということだったらしい。

やれやれ。

 

そういうわけで、今回の場合のように状況がわかっていなかったら(人間ならわかるところだろうが)、命令に無条件で服従するのではなく、理由を聞いてもよかったということのようだ。

次回からは気をつけよう…。