人面魚

『悔しかったら自分もやればいいのに』という中学生並みの言い回しがあるけども、それは“やっかみ”にしか通じないという意味では一面しか真実ではなく、汎用性がない。極論だが「大事な人を殺されて悔しかったら自分も同じことをする」のかと考えると、それは理論のすり替え、逃げだということが判る。モラルのなさを責められている場合の言い逃れとしては、及第点以下だと言わねばならない。
ひとがそれをやらないのは才覚が足りないからではない。モラルを持っているから敢えてやらないのだ。
しかし待てよ、と考えた。
法律は大体が人の感情を掬い取るようにして成立している。ある行動を禁じる法律があるということは、嫌がる人がいるということだ。それをもっと拡大したのが裁判などの判例であろうし、慣習である。一定の環境の中で作法を学び、それを踏襲していくうちになんとなく身についてくるもので、周りのひとにとっても共通認識であろうと踏んで、たとえ方便でも判断基準として利用し私もそれに則って行動している。それがモラルである。
しかしその法律も慣習も地域時代によって違ってくるのは自明である。モラルも細かい部分はひとそれぞれなので、摩擦を避けるためには説明しすりあわせをしなくてはならない。そこで例えば人を殺すのは是非止めてほしいと思っていたとしても、大事な人を殺されても全然気にならない人が相手だったら、何故殺人がいけないのか説明することは難しい。
環境によって常識が違い、感情の発露するカタチも違う。感情も実は学ぶものなのだ。こういうときは哀しんでいいとか、このように怒るものだとか。心の揺れはとにかく発散できればいいのであって、怒りや哀しみや感動というのはそのひと内部の筋道にしたがってカタチが与えられている気がする。排出しやすいように。
殺人はともかく、もっと軽いことでなら私が厭だと思うことを何とも思わないひとは現実に存在するのだ。逆もまた然り。感じない? 感じないって何? ならばこの主体φからの揺れは何なのか。
前置きが長くなったが、そんなことをぐるぐる考えていたら、ELIZA(イライザ)というコンピュータ・プログラムに行き当たった。“非指示的カウンセリング”などと呼ばれるもっぱら聞き役に回るカウンセラーをシミュレートする会話プログラムらしい。

ELIZAプログラムを利用すると、たとえば次のように会話が進んで行く。

利用者:「最近、眠れないんです」
ELIZA:「眠れないんですね。そのことについてもう少し詳しく話してください」。

このように、システム自身は具体的に答えず、ユーザに発言を続けさせるようなメッセージのみを返すため、会話が続けられるという仕組みである。
擬人化エージェントによるカウンセリング・システム

愚痴の鸚鵡返しに近い形で単純に質問されると、悩みの根本から問い直されてしまうという効果があるんだろう。

しかしごく単純なプログラムであるため、すぐにあきられるだろうと考えた開発者自身の予想に反し、ELIZAと会話した人達は皆、あたかも人間と会話をしているような錯覚に陥り、そのシステムにはまったという。

やったら私もはまりそう、面白そう、と当初のぐるぐるは何処へやら興味津々になったのだが、ELIZAはアルファベットしか認識しない。そこでごそごそ漁っていたら、日本語版では人工無脳というのがあるらしい。
ここまできて、ふと思った。これってアレに似てる。シーマン

そういえば発売当初も気になってたんだよな。しかしそのためにPS2を買うのもなぁ‥‥。