04/24

(0:09) 「言語処理のための機械学習入門」を読み終わった。

ものすごく親切な本だ。

 

次は Koehn本。

1章を読んで、2・3章はちょっと見て飛ばした。

4章からじっくり読んでいこう。

 

いきなりだけど、今日はぼくの倫理基準について書いてみる。

数日前の日記で、「ぼくの倫理観に合わない」などと書いたので。

まあ、だいぶ前にもブログのほうに書いたことがあるんだけど、それから時間がたって頭が整理できたところもあるので。

 

ぼくは、以下の二つを倫理基準にしている。

 

1. 他人の権利範囲に影響のある行動を取りたいときには、相手にそのことを伝え、同意を得られた場合のみ実行に移す。

2. 他人の行動判断に有用だと自分が考えた情報は、相手に伝える。

 

これらにはそれぞれ理由がある。

 

1 については、「自分がその行動を取る」という事象が起こる場合と起こらない場合という二つの選択肢を相手に提供することで、相手の効用の期待値は、その選択肢がない場合に比べ、必ず上がるかそのままかであって、減ることはないから(相手が現状維持を望めばそうすることができるので)。

2 については、それが自分に取り得る最善の行動だから(他人の行動判断に有用な情報を提供すれば、その人にとっては判断材料が増えるため、よりその人自身にとってよい行動が取れるようになる。何が有用かについては間違う可能性があるが、それは自分の限界なのでしかたがない)。

 

最近は、ずっとこの倫理基準を適用して生活している。

この基準からは、「人の物を勝手に盗まない」「人を勝手に殺さない」などが演繹できるので便利。(同意殺人はこの基準ではOKだが、まあそんな機会はなかなかない)

 

この倫理基準を守ることの利点は、誰かに何かを言われても、行動の申し開きが簡単にできるということ。

仮に「会社について悪いことを書くのは良くない」という謎基準で責められたとしても、「会社は、何か書かれることを望まなければ、その選択肢が取れた」という事実があれば、それはその会社自身の判断の問題であって第三者がとやかく言うことではないんじゃないかと言える。

 

まあ、この倫理基準というのも所詮は VM みたいなものでしかないけれど。

普段からネイティブに(自分の利益だけを考えて)行動すると、思考回路への負担が大きすぎてかえって効用が下がるので、VM上の思考(倫理基準を使用)で済ませるのが楽でいい。(このことは過去にも何回か書いた)

 

もっとも、生命体としてのネイティブ思考回路としては自分の効用しか考慮する必要はないので、もし生命の危機に陥ったりしたら、この VM を使わずネイティブに切り替える準備はしている。

しかし、日常生活の範囲内ではVM・ネイティブ切り替えすら高コストなので、ずっとVM上だけで動いている。

 

ところで、ぼく自身はこの倫理システムで動いていて特に問題はないのだが、人間の中にはやたらと細かい個別ルールを持っている人が多い。

ぼくの経験上、この個別ルールが細かく、厳格であるほどぼくとは合わない。

○○は××すべきだ、みたいなことを言われると、「もっとホンシツを見ようよ、なるほどくん」と言ってしまいたくなるのだ。