『複雑系』を読む・I


立花
 複雑系を全部読んだ人はどのくらいいますか? ここには文科系もいるから、その人たちにもわかるようにやって下さい。まず全体をわかるようにして、注釈的なことをサブの人がやって欲しい。スチミュレイターは、このあいだ言った、いじわるな先生の役をやって欲しい。では、まずは自由にやってください。

発表者
 いきなり五章六章をやってもまずいので、まず、関係するコンピューターなどをやって、一、二章が終ったら質問をうけてそれから、五章のニューラルネットワークをやり、六章の人工生命にいこうと思います。

カオスとはなんだろう?

発表者
 一番始めにまず、カオスってなんなんだろう、ということを考えましょう。
 カオスの定義を表した文章を読み上げますと、「ある時点で状態が決まれば、その後の状態が原理的にすべて決定されるという、決定論的法則にしたがっているにも関わらず、非常に複雑で不規則かつ不安定なふるまいをして、遠い将来における状態が予測不可能な現象」だっていうことなんですが、わかりにくいですよね。
 実際の「カオス」という言葉の意味は何かというと、「複雑さ」という意味である。では、「複雑さ」と「複雑系」とはどう違うのだろう、ということは、おいおいわかってくるでしょう。
 では、カオスの説明においてよく使われる「ロジスティック写像」というものを示します。


 こういう2次関数を用意します。そしてある初期状態、たとえばX軸上のこの点X0を取って、ある時点のバクテリアの個体数だとします。これが一単位時間たって増えた個体数は、X0に対するグラフ上の点のY座標Y0(i)とします。そして今度は、このY0という長さをX軸上に移してX1とするんですね。そしてこのX1から、また一単位時間たったときのバクテリアの数は、X1に対するグラフ上の点のY座標Y1(ii)であると分かるわけです。
 このような繰り返しをしていって、バクテリアの数の変化を調べられるのですが、これをいちいちやっていくのは、けっこう大変ですね。
 それを図形的にやっていこうというのが「ロジスティック写像」です。y=Axというグラフを用いて、一次変換の原理で、ある初期値から始まったものが、どことどこに収束していくか、ということが、このように図形的に見えるわけですね。

質問者
収束する値が複数あるっていうのはどういうことなんですか。

発表者
 それは周期性を持つということなんですね。最初 0.1、次に 0.5、次に 0.7、そしてまた 0.1、0.5、0.7、というふうになる場合、3つの点に収束するというようにしてあります。
r=4.0
x0=0.98765000 x0=0.98765001
x1=0.04878991 x1=0.04878987
x2=0.18563782 x2=0.18563765
x3=0.60470568 x3=0.60470532
x4=0.95614689 x4=0.95614718
x5=0.16772007 x5=0.16771899
... ...
x19=0.99259197 x19=0.99610623
x20=0.02941239 x20=0.01551444
x21=0.11418998 x21=0.08109494
x22=0.40460251 x22=0.22944952
x23=0.96359727 x23=0.70720976
x24=0.14031027 x24=0.82823647
 ここで面白いのは、y=Axにおいて、A=4の場合、最初はきれいな値が続くんですが、突然、ある時点でグラフが真っ黒になり、すかすかになって、また黒くなるという現象が起きる。これは、完全なカオス状態であるということなんです。このとき、どのように異常なことが起こるかという例を示します。
 初期値に 0.98765000 という値と、0.98765001 という値を取った場合を比べてみましょう。こんな小さな差ですから、時間がたっても、そんなにこの二つは変わらないと思うかも知れません。しかし、実際24単位時間目に比べてみると、0.98765000で始めた方は、0.14031072になっています。ところが、初期値が0.00000001だけ大きい値で始めた方は、0.82825647になっている。どうみても絶対違う値ですね。
 これは、コンピューターが、ある計算をするときに、どうしても小数点以下のある値を切捨てなくてはならなかった。それで計算した後、ではちょこっと大きくしたらどうなるだろう、とやってみたら全然違うふるまいをした、ということから発見されました。こういうことから、カオスという現象があるのではないか、と言われだしたわけです。

立花
 いきなりカオスそのものの話から始まっちゃったけど、そもそもカオスと複雑系が、どのように関係するのか。それから、なぜ複雑系を語るのに、まずカオスの説明が必要なのか。  全体的な概念の把握のしかたをきちんとやってくれないと、一挙に枝葉のほうに話が行っちゃったみたいで…。

発表者
 どこかでその話をしようとは思っていたんですが(笑)。  複雑系というもの自体、非常に自然に即した部分が強くて、どうみても何かの法則を持っていたり、何かの意志が働いていたりするようには見えないというようなもので…

質問者
 カオスの研究と、非平衡な系の研究から複雑系というものの研究が発達してきたというふうに説明してみたほうがわかりやすいんじゃないでしょうか。つまり、さっきの「ロジスティック写像」みたいな非線形な系の研究が発展していき、それからまた別な方面で、生命のような非平衡な系の科学が発展していった。そのうちに、これらの間にはなにかこう、通底するものがあるのではないかという。小さなものから、突然大きなものが創発されていくという、複雑系の大きなテーマですが、そこで結びついたのではないですか。

立花
 複雑系というのは、厳密な定義は存在しない。それから、数学的なカオスと日常語で使われるカオスとは、微妙に違うでしょ。複雑系という大概念では、数学的なカオスは一致しないよね。
 そもそも、複雑系というものが注目されだすには、サイエンスの大きな流れがあったわけでしょ、複雑系に取り組んでいたつもりでも、実は単純系ばっかりやってきていたという。そのへんの歴史的な流れの中で、どうして複雑系の学問が出てきたのか、ということに関してひとことないと、わかりづらいかもしれない。今、社会的にすごく「複雑系」というものが注目を浴びて、みんな何なんだろうというふうに思ってるわけでしょ。ということは、みんなが、今までのサイエンスが複雑系を無視してきたんだということに気づいて、「複雑系」というキーワードを与えたら、何でもうまくいくんじゃないか、と考えだしたようなところがあるわけでしょ。  ぼんやりした概念だった「複雑系」というものを、学問的に精密にやろうとしている人たちが出てきて、そのなかでカオスという概念が分析に役に立つというかたちで結びついてくる。

発表者
 それで、複雑系の研究を進めているところとして、本のなかではサンタフェ研究所というところを挙げているわけです。この研究所の中の様子、どのようにして立ち上がったかということなどを通じて、複雑系の研究の経緯を示しています。  1から4章までが経済で、特に経済学というのは、内容を簡略化して、人間の意志というものは扱いませんよね。人はものだとしてしまうわけです。ところが、実際考えてみると、やはりそうはいかない。この本では、ブラックマンデーが起きた理由を例に取っていますが、人はやっぱり意志を持ち、それぞれの考え方をするのだから、ものであるとは考えられない。そういうところから複雑系という考え方が生まれてきたわけです。

コンピュータの誕生と複雑系

発表者
 では、4章・5章なんですが、ここにはコンピュータのことがたくさん出てきて、何なんだろうと思うこともあるでしょうから、ここでまず補足をしておきます。
 いちばんはじめに、ENIACというコンピュータが作られました。写真を見ればわかるとおり、奥にいるのは、人です(笑)。ばかでっかいわけです。しかも、これは配線をいちいちつなぎかえることで機械を動かしていたんで、たいへん時間がかかった。しかし、人間が7時間かけてする計算を、わずか3秒でしてしまうという点では画期的でした。が、あんまり使われなかったんです。

質問者
 それは何をもって世界初ということになるんですか? 計算機はそれ以前にもあったわけですよね。

発表者
 はっきりとは覚えていないんですが、電子計算機というかコンピュータには二通りの使い方があるんです。一つは計算、そしてもう一つ大切なのは、論理を把握するということなんですが、この後者ができるということで、ENIACは最初の電子計算機と呼ばれることになったはずです。
 ENIACは、人が配線を組み変えなければならなかったので、次に、かの有名なフォン・ノイマンという人が中心になって、EDVACという初めてプログラムを内蔵したコンピュータがつくられました。
 ところが、コンピュータにも欠点があって、計算できる桁数に限界があるんですね。始めの頃は特に、さっきあげたような 0.00000001の差なんて分かりません。だから、例えば 0.1の初期値の差で、大きな結果の差が出たとしても、それは機械あるいはプログラムのミスだろうということで、なかなか複雑系という考え方には至らなかったんです。

立花
 コンピュータとはそもそもなんなのかっていう定義はいろいろあるんだけれど、いちおう計算機械だと、コンピュテーション(計算)ですね。そして計算の手順がプログラムだと。簡単に考えればそういうことですね。要するに、やってることはすべて計算なんです。ただ、計算の手順もすべてこのメモリのなかに入れておいて、この中にデータを出したり入れたりしているうちに、なんらかのアウトプットが出てくるわけです。
やらせたいことをすべて計算にしちゃう。要するに、対象が計算可能かどうか、ということがかかってくるわけですね。

立花
 非常に複雑なものを扱おうとする時、それをコンピュータが扱えるか、計算可能な手順を作れるか否かが、問題なんです。よって、複雑系の問題の一つは、計算可能性の問題が必ず出てくるわけです。複雑系について話をする時には、そもそも何が複雑系で何が複雑系でないか、複雑系に何が含まれ、何が含まれないかをまず頭の中で整理してみて、それから、カオスだけでなく、他の数学概念が複雑系とどういう関わりを持っているかというふうに見ていく必要があります。その計算可能性の中で、一つは先ほどいったカオスの計算爆発を起こしてしまう問題など、いろいろな問題がでてくるわけです。だから、コンピュータがどんどん発達して、計算力は莫大になってきたけれども、コンピュータではどうしてもできない計算がたくさんでてきて、それが、ただ計算量を増やせば複雑な現象を分析できるかといえばそうではないということがわかってきたわけです。それがいちばんの背景にあります。

 何をもって複雑系とするかということについて、はじめの方に複雑系概念の整理というところがあるでしょう。188ページに『基本的にこれらのシステムは、並行的に作用する多くのエージャントのネットワークである』とあるが、これが一般に複雑系のもっとも基礎にあるものですね。いろいろなひとつの系をみた時に、その中に独立のエージャントがあり、そのエージャントの性格が複雑系を生むもとになるわけです。

立花
 さっきの電子計算機というのは、計算と論理とどう論理を示すというのはちょっとちがうといえます。使われ方としてはずっとただの計算をしていただけで、ロジカルな分析はしていなかったのです。

発表者
 しかし、ノイマン自身ははじめに作った時に論理計算も頭に入れていたと思うのですが。

立花
 それはそうでしょう。もともと原理がそうだから。記号論理を電子の構造に変えたというだけだからですね。それは最初からそうですね。逆に計算を論理に置き換える、要するに、論理と計算は密接な関わりを持ち、ブール代数というものが計算の基礎構造で、それは論理に置き換えるとこういう論理になるという、記号論理のいちばん基礎にあるものと同じであるということです。ただ、何によってそれまでの計算機と電子計算機をわけるのか。電子計算機は電子信号を使って計算をするというのが、電子計算機の電子計算機たるゆえんなわけで、基本的には電子信号でどうやって計算をやらせるかというところに回路化した論理を用いているわけです。今度は、コンピュータの使われ方として、具体的な論理分析とかそういうことに使うというのはわりと最近のことであり、今は人文系で非常に多目的な使われ方をされていますが、ずっとしばらくの間は、専ら計算に用いられ、サイエンスの世界だけで使われていました。

立花
 ちょっとひとつだけ言っておくと、彼が最後に言っていたサンタフェ研究所は、インターネット上で行こうと思えば簡単に行けます。サンタフェのページを見ると、そこでどういう研究をやっているいて、どういう論文が出ているか、すぐわかります。これはごく一部ですが、全部引き下ろすと大変な量になります。また、この中にも書いてありますが、特定の時期に、ワークショップやセミナーを開いたりする時に期限つきでまずはアメリカ国内、そして全世界からいろいろな研究者が集まって、そこで議論を交わし合う、そういうことを繰り返しているという、常任の研究員がいない研究所なんです。だから、サマースクールみたいなことをやっていて、君達で参加しようと思えば、参加できるはずです。こういうページを見てて、そこがどういう運営をしているかをみると、日米の研究体制がいかに違うかということが、よくわかります。

ニューラル・ネットワーク

発表者
 ありがとうございました。それでは5章に入ります。5章のはじめに、複雑系とはどういうものか説明がなされていますが、複雑系というものをどういう視点で眺めるかということで、5章ではニューラル・ネットワークというものから眺めています。ニューラル・ネットワークとは、その名の通り、神経回路を真似ようという考えからでてきたのですが、実際に神経回路がどんなふうになっているかということはわからないということで、生物学的な神経細胞の構造というものはわかります。回路に再現することでやるにはどうしたらいいのだろうということで、このニューラル・ネットワークについての話がでてきたわけです。
ニューラル・ネットワークの基本的なところというのは、0か1かで考えてもらって構わないのですが、このaというニューロンに何かの情報が来た、bにもcにも何か信号がきた。そして、各々どこかのニューロンに情報を渡し、そのニューロンは、ある種の計算ともいえる過程を経て、閾値よりも大きければ、旗をあげる。小さければ旗を下げるみたいなことをするのが、一番はじめのニューラル・ネットワークでした。実際、これでいろいろなことができます。これはちょっと教科書から離れますが、これはニューラル・ネットワークでニューロンがいくつ集まれば、どんなことができるか、どんな視覚ができるかということを示した図です。1ニューロンに対して2つの信号を入れたら、平面の分割ができるということです(a)。次に、2つの信号を3つのニューロンに入れてひとつに統合したら、平面を3本の線で分割することができます(b)。入ってくる信号をx1x2とすると、それらを送り込んでそれぞれのニューロンが各々反応して3つ、3つを通した場合、一つの閉領域が9本で区切れることになります(c)

質問者
 そのx1x2には何を入力して、その出力細胞は何ですか。

発表者
 x1x2には0と1しかいれていません。ある式しか入れてないということです。その出力というのは、右方向にx1、縦方向にx2をとって、一つのニューロンに対して先ほどの式を与えた場合に、どういう範囲にはいって、どういう区別ができるかということです。ちょっとわかりづらい説明ですが…。

立花
 大雑把に説明しとくと、ニューラルネットというのは、実は相当いい加減でいいシステムなんですね。だから、彼がいったように、いろいろな構造があって、どのように結合を組むか、構造にはいろいろ違いがありますけれども、とにかく、複数の分岐を広げてネットワークを作るというのが、まずひとつ、共通の構造です。一つ重要なのは、出力すると、出力したものがどの程度求めていたものと近いか遠いか、評価をする。評価して、それによってつなぎかえをする。その時、具体的にどこをどう変えるかきちんというわけではないが、評価関数をだして、また同じ出力で出力を出して、評価が上がるようにつなぎかえをするということを繰り返していくわけです。基本的にはおまかせの原理で、その仕掛けだけを作っておくわけですね。それで具体的に何を入力するかというと、AならAという文字を入力する。そして読みを出力する。それをAの読みに近付けるようにしていくわけです。

発表者
 ニューラル・ネットワークというものが単なる線形で終るものなら、それでよかったのですが、ニューラル・ネットワークを考える時に、ある値が大きいか小さいか判断する要素というものは、線形にするか、非線形にするかで全く異なってきます。線形の場合なら解析的にすぐ求まります。でも実際、神経細胞に対して、定期的なパルスを与えてその反応を見ると、カオティックな反応をみせます。とすると、神経細胞の結合は非線形にはたらいているということで、式はきれいにはならず、解析的には求まらないものとなります。これは線形ではありませんから、複雑系との絡みが出てくるわけです。

立花
 非常に簡単にいってしまうと、彼がいったように、解析的に求まるものはコンピテーショナルなものであるといえます。フォン・ノイマン型のコンピュータでプログラムをつくってコンピュータにあとを飛ばせばいい、あとを飛ばせるプログラムを作ればいいということになりますね。ところが、非線形になると、解けるものがないから普通のフォン・ノイマン型のコンピュータでは計算不可能で、そういうものをニューラル・ネットワークにおまかせしてしまうんです。すると最初はできないであろうと思われていたものがわりとどんどんできていってしまうので、そこがどんどん結び付いていくわけです。ここで、188ページから191ページにかけて、複雑適応系のいろいろな特性が出ていますが、そのなかで、マルチ・エレガントのネットワークというものが、複雑系の共通の構造としてあって、それが、どのレベルによってとらえるかでずいぶん違うのですが、それは計算爆発を起こし、普通はその振舞いはコンピテーショナルではないわけです。そのために、何らかの別の手段を考えなければならなくなります。それで、191ページの切れ目の真中からあとのところで、『多数のエージャントの相互作用の…(略)…コンピュータシミュレーションである。』とあるわけです。コンピュータシミュレーションのほうは、ニューロコンピュータだけでなく、他のさまざまのコンピュータの話になってしまいますけれども。要するに、大変複雑な系があるとしますね。そうすると、コンピテーショナルではない非線形のものでも、例えばそれを構成しているすべての分子が数分後にどうなるか、精密な方程式を立ててコンピテーショナルそのすべてのアボガドロ数について計算しようとすればできるんですが、普通のコンピュータでは計算爆発を起こしてしまうためとてもできないんです。

 しかし、別なやり方として、その空間のなかを、例えばコンパートメントに分けてしまう。そしてごく小数に限り、仮想的な空間としてその次の瞬間どうなるかについての計算式を与えるわけです。こうすれば、ある程度はできるんです。遠い先のことはわからないけれども、とりあえず今ここに、ある分子があってどういう方向に動くかわかっていれば、その次の瞬間どうなるかわかります。それを何万元という連立方程式に表して、解くというかたちでその時間的な変化を小さな単位でトレースしていくわけです。そうすると相当複雑な世界が解けていくということにことになるんだけれども、それでも解けないというものがあるわけです。それを表現するなんらかの数学を見つけなければならないわけで、その一つとしてカオス理論が出てくるということになります。そういう位置付けになります。そしてもう一つは、この間の過程について、コンピテーショナルというのは、その次にどうなるかということが、どんどん後づけられていくのですが、そうではなく、あとはこのネットワークに任せてしまうというやり方です。こちらの方がどんどん発達してきて、最初はニューロンの数は数十というものだったのが、先週見たように何億という単位になっているんです。それを具体的に作ってしまおうという 人たちがいます。これがどうなっていくのかまだわからないけれども、このほかにも、新しいニューロコンピュータの仕掛けを考えているという人がいろいろいまして、その一人が、今月の『サイエンス』に紹介されています。

質問者
 線形、非線形の概念を理解しておる人はこのなかにどれくらいいるでしょうか。文系の人だと、わからない人もいるのでは?

発表者
 簡単にいうと線形というのは、グラフでいうとこんなグラフになります。xの値を2倍したらyの値も2倍になるというようなものを線形といいます。それ以外が非線形です。それに加えて、線形のものはそれぞれを足し合わせても線形を保ちます。だからy=a(x)y=b(x)を合成したものは、線形です。それから、2次元のものも、微分してしまえば、その微分したものは線形になるので、これも線形とみなします。

複雑系を考える意味

立花
 今日の単元についていえば、複雑系とはそもそもどういう特徴を持っているのかというね、この本の188から191ページまでに書いてあるような複雑系の共通特性のようなものをきちんと理解しておくことがものすごく大切で、その共通特性がこれまでのサイエンスの方法論とは全然違うものを要求している、そしてそこから違うものが見えてくるんだという、そういう全体的な構造みたいなものを見ていかないといけないと思うんですよね。
 で、このなかで非常に大事な概念の一つは、やっぱりエマージェンス(創発)ですね。下部構造の分析でみんな分かるのではなくて、下部構造からでは思いもかけないような現象が起こっちゃうのが創発です。では、この創発はいったいどういうふうに起こるのか、また起きてしまった場合はどういうふうにそれを解決したらいいのかという問題が次に起こるわけですね。

 もう一つ大事な概念は、こういう現象を起こす複雑系の中で、必ず自己組織化がおきているということです。自己組織化とは何なのか、なぜそれが起こるのかという、そこが今分からないのです。本全体でいえば、第八章の「第二のカルノーを待ちながら」がまさにそのことを問題にしています。
 夏学期の授業で結構話したように、この宇宙はエントロピー増大の法則でどんどん分解する方向、死滅する方向に向かっているわけです。その中で生命現象という自己組織化が起きて、もともとはただの物質系だったところにエマージェンスが起きて、全体としては死へ向かう世界の中で反対に生命へ向かうという現象がなぜ起きたのかという、そこにおそらくもっとも大きな謎があるのではないか。それをとらえようとするのが複雑系の科学なんだという、そういう見方ですね。

 進化も学習も、実は構造的には同じ自己組織化によって起きているんです。生物界の適応現象もやはりそうです。進化も学習も適応も同じ線上で見ていくことを可能にするのが複雑系の科学です。では学習とは一体何なのかというときに、ニューロコンピュータ、ニューラルネットとそれから神経のネットワークが何をやっているのかという、そういう話になってくるんですね。
 生の脳というのは完全な複雑系になっていて、脳が何をやっているかということほどわけが分からないことはないわけです。それでも何とか脳をとらえるために、人工的にほとんど脳と同じ複雑系をつくって、それにタスクとして脳と同じことをやらせたらもうちょっと脳が分かるのではないかということで、脳の研究をしている研究者がいます。この前ちょっと話に出した人とか、電総研のグループとかね。

ヘッブのシナプス可塑性

発表者
 今やっているのは、ニューラルネットワークの話が終って、ヘッブの学習理論に入ろうというところです。
 ヘッブの学習理論というのは、ニューラルネットワークのなかでも実現されているんですが、学習をする際に、シナプスが可塑性を持っていて使われれば使われるほど回線が太くなっていって情報が伝わりやすくなる、それとさっきの自己組織化の話ともすごく関わってくるんですけれども、自分自身で再び興奮することができるということを言っています。さっきのニューラルネットワークの図では左から右にしか情報が流れていないように見えますけど、実際には自分自身に情報が戻ってくるようなフィードバックもあるんです。自己組織化を行なう上で、このポジティブ・フィードバックが『複雑系』の本の中でもすごく重要な概念として出てきています。このフィードバックを考えるということは、反応が一方向につながったものではない、つまり非線形であることを意味します。
 ニューラルネットワーク理論では、細胞のそれぞれを格子点としてそこにシナプスのようなものを置いて、これがどういうふうに組織化をするか、自分自身に対して反応を戻せるかというのを調べて、細胞集合体がどういうふうに作られているのかを述べています。

 つぎに、本の後半でクラシファイア・システムというよく分からない言葉で並べ立ててあるんですけれども、その説明をします。
 コンピューターというのは if-then という論理構造で何かをやっていこうという性質があります。このニューラルネットワークモデルでも、入力された値がある値より大きければ発火しろというように、「もし…だったら〜」とやっているのですが、この if や then の部分にはただ一個のニューロンが入れるだけではなくて、一つ一つが if-then 構造を持つニューロンが集まったもっと大きな組織(細胞集合体)も入るのではないかと考えています。

質問者
その、「もし…だったら」というのはどういう基準で決めているんですか。

立花
 きわめて恣意的に決めています。脳の大きな構造がどうなっているのか分からないし、小さな構造だって本当は分かんないんです。だから、それを模してニューロコンピューターを作るやり方にもいろいろなものがあるんです。実験的にいろんなことが試されて、実際の脳とはっきりした対応関係を持つモデルも作られましたが、特に対応関係にこだわらなくてもいいという考え方もあります。

現実の脳の働き・最近の知見

立花
 いずれにしても、本物の脳となるべく近いモデルを作ろうとする立場からいうと、現実の脳細胞が何をやっているかが分からないといけないわけです。
 神経細胞には、いわゆる樹状突起というのがたくさんあるでしょ。そこに入力が無数に入ってきて、出力が一発どんと出るという仕掛けになっているんですけれども、この入力がどれくらいあるかというと、数千から数万なんです。これまでのニューロコンピュータではこれはせいぜい十とか百とかのレベルでした。今度初めて電総研のグループが一つのニューロンにつき千の入力で千のニューロンを使う、合わせて百万結合のチップを作ったんです。この結合を、さっき言ったようにどんどん変えていって、この百万結合のチップを千、すなわち十億結合のニューロコンピュータを作ろうということを今やっています。
 今までは、この神経細胞が樹状突起で入力を受信しているという構造は無視していました。一つの神経細胞の中をどのように信号が走っているのか、その解析ができなかったのです。唯一、イカか何かの巨大細胞についてはある程度分かっていましたが。
 脳の研究は、基本的には動物の脳に細い電極を刺して、その動物に何かを見せたりして感覚刺激を与えた時に、そのたまたま電極を差し込んだ細胞が発火したとか発火しないとかを調べていました。つまり、極度にローカルな情報しかないわけです。これでは、その時脳全体が何をやっているのか、脳の「どの部分が」発火したのかまでは全然分からない。脳全体の情報はPETとかΝMRなどで計測する手段がありますが、これはとても解像が荒いんです。本当の神経細胞は、一ミリ立方メートルの中に五十万細胞とかいう単位なのに、PETとかΝMRだと、解像が一ミリ立方までいかないですよ。そうすると、神経細胞の数にして何十万という動きでしか分からないわけです。

 実は電総研のグループは、最初は脳細胞のスライスを切り出して、それを顕微鏡に載せて、電圧感受性色素を使って、電位の変化があると色が変わるようにしたんです。すると細胞の中を電位がどう伝わっていくかが色素の変化によってパァッと見えるんです。最初は顕微鏡の上の薄片程度だったのが、今では生きてる動物の脳を開いて、そこに色素をかけて脳を生きた状態で刺激を与えたりして観察できるようになりました。
 これは顕微鏡で見るから本当に精密な量まで見られるようになって、十ミクロン単位まで分かるようになったんです。神経細胞というのは、もちろん大小ありますけれどだいたい一個の大きさが十ミクロン単位ですから、いまでは神経細胞一個が見えるようになってきたわけです。いまでは神経細胞一個一個が違う個性を持っていることまで分かっています。
 神経細胞一個は、今まで信じられなかったほどの情報処理をやっているのです。今までは、ニューロンがあって、その結合体が一つのユニットになっていて、これがある機能を果たして、それがさらに階層構造をつくって、下の方はほとんど何にもやっていないと思われていたのが、そんなこととんでもなくて、このニューロン自体がマイクロコンピュータに近いということが分かってきたんです。電総研はそこまでニューロコンピュータ上で模倣しようとしています。
 実際のニューロンは過去の入力のデータをメモリの中に入れています。ある出力をするに至った入力はいつの時点でどの部位に来たかという、時間情報を含んだ過去の入力情報がメモリにストックされているのです。脳全体の記憶は信じられないほど大きいのです。  電総研では一つのニューロンに、マイクロコンピュータの機能を持たせ、そこに時系 列的な情報をストックすることを試みています。人間の脳と言うのはその一個一個の総体が脳なわけだから、脳細胞全体の記憶量は信じられない程大きいんではないでしょうか。これまでのコンピュータはプロセスを中心に作られてきたが、実際はメモリーの総体です。
 「人工知能ハンドブック」によると、コンピュータを用いての人工知能の開発は試行錯誤の連続なんですね。G.P.S( General Problem Solver)は、人間はもし、状況がこうならあの手段をとる価値があるという発見の経験則に導かれていることを前提とした有力な方式で、人工知能の歴史の中で時代を画するものであったが、色々な問題を解かせて見ても、ちょっとでも複雑になるとすぐ計算爆発をおこして解けなくなってしまうという難点があった。その度にそれを克服しようとする試みが行われて、例えば可能性の空間の全部をやらずに特定の領域だけ探って行くという方式が考案されたんです。 目標誘導型探査系とも呼ばれているこの方式は、要するに、この辺がうまくいきそうだ、というところだけを設定して、そこまでの最短距離を見つけるように問題を限定して、計算爆発を防ぐものでしたが、これで問題が解決したかと言うと必ずしもそうではなく、結局頓挫してしまった。

 一方、化学の世界で非常に重要な概念の一つに自己触媒(以下、自触媒)作用というものがあります。これは、ある反応で生成した物質そのものが正の触媒作用を持つと言うもので、これにより正のフィードバックループが出来上がるんです。実は、有名なベルーゾフ・ザボチンスキー反応にもこの作用が働いていて、これは勿論、非線形です。メルビン・キャルバン著の「化学進化」という本の中で紹介されていますが、生命の誕生というのは創発(エマージェンス)の中でも最大のものであると同時に、進化史上最大の出来事であるというわけです。問題は何故物質から生命が生まれたのかということですが、この本によると、等質な状況下に於いて、エネルギー散逸系の中では、条件が揃うと、ある構造が生成消滅を繰り返すという自触媒作用の特徴的な働きによってしか生命誕生は説明できないと言ってます。ちなみに、物質の世界には光学異性体というものがあるけど、地球上では左旋性のものしかないことも自触媒作用を用いて説明できるとしています。また「複雑系」の中で使われていた、自動触媒作用と言うのは正しくは自己触媒作用と言うべきなんですね。

 参考文献『自己組織化の科学』について、これは簡略な形で様々な自己組織化を説明している。類似した散逸構造における物質代謝やエネルギーの流れの中で発生する特定の秩序が自己組織化に特有の現象で、これにはシナジェティクスが伴ってますが、やがて生命的な構造を生むという、またこれは同時に複雑系も関与してくる話です。 人工生命(以下A.L.) について、これは人工知能(以下A.I.)の研究が破綻して、もはや将来性のある研究はこれしかない、という経緯で生まれたんです。

 例えば、ニューラルネットワークの研究に於いては、従来のように決められた構造を設定し、その中で素子間のつながりを進化させるのではなくて、ネットワークの構造そのものを進化させてみる、という試みも始まっています。またデガリス氏がC.G.(Computer Graphics)上で表現した極めて複雑なネットワーク も、実はそれ自身に進化させるプログラムを組んでやっています。と言うのも、従来の様に人間が進化のプログラムを組むという方法では限界があるんです。またA.I.の研究は大雑把に、創発計算論、進化計算論、適応行動、発生発達モデルなどがあるが、これらはみな前述した内容の方向性を持って取り組んでいるもので、具体的な特徴としては

の以上4つが挙げられますが、これは同時に複雑系の特徴そのものなんですね。 また、今まで手に負えなかった複雑な問題を解決するのに、進化する人工頭脳をつくって対処するというやり方は、例の「つくる事こそ、真理を知る事である」というジャン.バチスタ.ビーコが示した言葉を彷彿とさせるし、生命の神秘というのは、生命を創る事によってしかおそらく解らないであろう、というコンセプトがこれからのA.L.やA.I.の研究において主流になっていくでしょう。複雑系に対しても、この方向でアプローチしていかなければならないし、また複雑系の研究を通して、以上のような事が実現しつつあるんです。

 最後に遺伝子の事について言っておくと、95年1月に出版された本に引用されているが、ジャックとモノーが言った、「遺伝子というのはその中に組み込まれているスイッチング機構によって発現している」という言葉は、既に時代遅れです。遺伝子を発現させる仕組みは転写制御の研究によりわかってきていますが、ここ4、5年で状況は大きく変化しています。転写制御因子のレパートリーも昔は十数個でしたが、現在では軽く千を超えている、これは情報量にして教科書千ページにも昇るんです。このように、最近書かれた本に解説されているレヴェルでさえ、既に現状とはかなりの差ができている事を頭に入れておいて欲しいと思います。


文責:木村 俊介・藤井 由紀子・田中 英資・長田 さやか・安田 亨

Any questions & comments, please send mail to:

l72106@hongo.ecc.u-tokyo.ac.jp

back to Tachibana Takashi Main Page