コンテクスト依存な知識とコンテクスト・フリーな知識
科学は、再現性を持つため(それは科学の定義のひとつだ)に、万人にとって役立ちうる知識だ(この「役立つ」という言葉は曲者だが、その定義に関する神学論争は措いておこう)
科学には再現性がある。どんな人でも、その基礎的な能力さえあれば、同じコードを書けば同じ出力結果だろうし、同じ温度・圧力であれば水は100℃で沸騰するし、同じ時季同じような天候条件で同じような土地に同じような種を蒔けば同じような作物を得られるだろう。これらは、コンテクストに依存しない、言ってみれば「コンテクスト・フリーな」知識だと言える。誰がいつどこでやろうと、その条件が明示的でありかつそれを満たしていれば同じ結果を得られる。
他方で、「コンテクスト依存な」知識もある。あなたがお祖母ちゃんから、煮物をつくるとき、美味しくするための煮加減を教わったことがあるとしよう。それは、おそらく条件が明示的でなく、また「美味しさ」は人によって違うため、強くコンテクスト依存的な知識の例である。こういった知識は、汎用性がない。しかし、これらのある意味で vernacular で local な知は、「誰しもの」役には立たないかもしれないが、「誰かの」役には立つ、そういう知識である。
本質的に、Google や Amazon や Apple や Facebook が行っている『ビッグデータ』とは、そういうコンテクスト依存な知識のコンテクストを explicit にして、それらを「コンテクスト・フリー化」する試みだと言える。相関関係を明確化に統計として集積し、ある事象Xが起きたときに共起する A, B, C, ...を列挙していく、そういう世界を理解するためのアプローチだ。
では、本当に全てのコンテクストを明示化できるのだろうか?
私はそれに対しては悲観的だ。なぜなら、(これはほとんど私の信念といったものなのだが)「世界に対して人間の知は圧倒的に小さい、というか前者は無限であるが後者は有限であり、後者が前者に追いつくことは原理的にない」からだ。
世界には事実上無限の変数群がある。それらを全て列挙するのは、神ならぬ身にてはおよそ不可能なことで、それはどんなスーパーコンピュータにも不可能なのである。そういう意味で、私は不可知論者的だ。だいたい、スーパーコンピュータでゴリゴリ計算するなんて、エレガントではない。
何か、コンテクストの implicity を保持したまま、知を集積する方策が求められる。
そんな気がする。