人間の目というのは「絶対的な色調」を判断しているのではなくて、周囲の色とのコントラスト(相対的な色合い)を見ているのだということ。
世には有名な錯視があり、あなたもみたことがあるだろう。このタイルとこのタイルは違った色に見えますけれど同じ色なんですよ、みたいなやつ。Googleで「錯視 タイル」とやればいっぱい画像が出てくる。
で、このことを説明するのに、「芸術・無意識・脳」はなかなかおもしろい例を出していた。
白いワイシャツの上に赤いネクタイをした人と、昼間に太陽の下で出会うと、「あっ、赤いネクタイだ」とわかるのだが、夜に薄暗いバーで出会っても、「おっ、赤いネクタイだ」とわかるというのだ。
そんなこと考えたこともなかった。
けれど、確かに、言われてみれば、昼間に見たネクタイと、夜に見るネクタイ、周りの明るさが違えばまるで違う色に見えてもおかしくないのに、ぼくはそのいずれも、「赤いネクタイだなあ」と連想してしまっている。
これはつまり「白いワイシャツとの差」を目と脳がきちんと認識して、「白いワイシャツの上にこれだけの差を放つならば赤ですね」とうまいこと補正して知覚してくれているからなのだ。
そして、暗闇の中で、赤いワイシャツに赤いネクタイを着けている人の「ネクタイの色」は、きっとよくわからなくなるだろう。
ぼくはこの最後の「赤いワイシャツに赤いネクタイだと色がわからなくなる」という現象を、実際に試してみたくてしょうがない。
でも赤いワイシャツも持ってないし、赤いネクタイも持ってないのだ。カズレーザーと友だちになるしかないのだろう。
で、ぼくが目下、知りたいこと。
それは、「AIによる病理診断」で、コンピュータが病理組織像を認識するときには、画像の何を認識しているのだろう、ということだ。
一昔前は、画像をピクセルに分解して、その形態とか色調のパターンを読む、ということをやっていたと思うのだが……。
形態でいいのだろうか。
色調でいいのだろうか。
コントラストは読まなくていいのか?
画像全体から得られるゲシュタルトな雰囲気は読まなくていいのか?
人間の左脳的な認識だけでいいのか? あるいは右脳的な認識だけでいいのか?
人間を超えるためには人間と同じ事をやっていてはだめな気もするが。
とりあえず画像の認識と解釈について、人間の目と脳がやっていることを、コンピュータがどこまで「追試」してるのか、そのへんを知りたいなと思っている。
もはや病理の話はAIの話だ。知能の話。そして脳の話につながる。
そういえばぼくの出た大学院って「脳科学専攻」だったなあ、と、懐かしく思い出す。