エントロピー増大の法則は普遍的に成り立つ法則です。しかし生命を見ると、エントロピーの増大の法則に反するように見える現象が多々あります。単純な受精 卵から細胞分裂を繰り返しながら複雑な生体が組織化されます。われわれの日々の営みも、基本、恒常性が保たれており、日々、体内のエントロピーが増大してい る とはとても思えません。進化の過程も、ランダムさを増すどころか、より複雑な、より高等な生命体を生み出してきました。本当にエントロピー増大の法則は普遍的 に成り立つのでしょうか。それとも、そもそも生命を物理学で考えてはいけないのでしょうか。
こうした疑問に答えるため、今一度、エントロピー増大の法則の証明過程を思い出してみましょう。カルノーサイクルを使っていろいろな証明をし
ましたが、常に、外部から仕事を行うことなく、低温源から高温源に熱が自然に流れることはできないから、というのが最後の決め文句でした。クラウジウスの原理に
反するから、とも表現されました。では、本当に低温源から高温源に熱は自然に流れないのでしょうか。それはエントロピー増大の法則に反するから、というのは理
由にな
らないことも説明しました。確かに、エントロピー増大の法則を認めればその通りですが、そもそもエントロピー増大の法則はクラウジウスの原理が成り立つとすれ
ば正しいことが証明されたわけですから、同義反復、説明になっていません。しかし、このことは、裏返せば「低温源から高温源に熱は自然に流れない」の反証を見
つ
け出せば、エントロピー増大の法則を否定できるということでもあります。となれば、生命現象には、クラウジウスの原理を打ち砕く未知のメカニズムが存在するとい
うことなのでしょうか。
マックスウェルの悪魔(Maxwell's demon)とは、1867年ごろ、スコットランドの物理学者ジェームズ・クラーク・マックスウェルが提唱した思考実験で、そこで想定されるような何らかのメカニズムが実 存すれば、熱力学第二法則で禁じられたエントロピーの減少が可能であることを問題提起したものです。もしこの思考実験を否定できないとしたら、熱力学の根幹を 揺るがしかねないわけですが、この難問が一応の決着を見たのは意外と新しく、1980年代に入ってのことでした。
マックスウェルが考えた仮想的な実験内容とは以下のようなものでした。
図9.1を見ながら説明していきましょう。
いま、2つの部屋からなる容器が均一な温度の気体で満たされているとします(A)。第3回の講義でお話ししたように、温度とは気体の 分子の運動エネルギーの平均値ですので、ここで均一な温度といってもすべての分子の速度が均一というわけではなく、速い分子も遅い分子も、ある分布をもって存在 しています。しかし、図では、単純に速い分子(赤)と遅い分子(青)の2種類の分子が同数あるとしています。
この容器の中央には2つの部屋を隔てる壁がありますが、そこには扉のつ いた小さな穴が開いています。一方、個々の分子の動きを見ることのできるある「存在」がいて、扉の開 閉を行うことで、気体分子に直接作用することなく、以下で述べるように、この穴を通過する気体分子をコントロールすることができるとします。
この「存在」は、個々の分子の運動を観察していて、ある速い分子が左から右へと穴を通過すると判断したとき (B)、あるいは遅い分子が右から左に通過すると判断したとき (C)、その扉を開きます。この操作を繰り返すことにより、次第に右の部屋には速い分子が、そして左の部屋には遅い分子が集まってきます。すなわち、分子の運 動状態を変化させることなく、右の部屋の温度を上げ、左の部屋の温度を下げることができるわけです。これにより、エントロピーを下げることができ、しかもこう して温度差が生じれば、この温度差を使って何らかの仕事を生み出すこともできるわけです。
ところで、扉の開閉にはエネルギーは必要ないとします。そんなこと可能なの、と気になるところですが、そう仮定しても、結局は、この話は否定されますの で、ここは さらっと受け流しておいてください。また、気体分子に直接手を加えていないことも重要です。速度を判断し、扉の開け閉めをしているだけです。結局、エネルギー を使うことなしに、この「存在」は、エントロピーのもっとも高い一様な温度の状態から、よりエントロピーの低い、温度差のある状態を生み出すことができたので す。これはエントロピー増大の法則に矛盾します。あるいは、カルノーサイク ルを使った証明での決め台詞「低温源から高温源に熱は自然に流れない」が使えないことになるわけで、この「存在」のいるシステムでは、エントロピー増大の法則は 適用されないことになります。
この「存在」がマックスウェルの悪魔とよばれるものです。もちろん、こうした魔物がいるということではなく、この魔物が行ったことに相当する何らかの物理
学的
な仕組み、すなわち、分子を振り分けるだけで、仕事をすることなしに(エネルギーを使うことなしに)温度差を作り出せる仕組みが自然界に存在すれば、エントロピー
増大の法則を否定できると言いたいわけです。
マックスウェルの悪魔は本当にエネルギーを使わず温度差を生み出しているのでしょうか?マックスウェルの悪魔がやっていることは次の4つのステップに分けて考 えられます。
1.悪魔は,飛んできた気体粒子が速いかどうかを観測する。
2.観測して得た情報を記憶する。
3.扉を操作して気体分子を通過させる。
4.先に得た記憶を消去して次の気体粒子の観測に備える。
当初、扉の開け閉めにエネルギーが必要ないとしても、1つの気体分子の運動を観測するためにはエネルギーが必要である、としてマックスウェルの悪魔は否定 されまし た。しかしその後、1〜3については、エネルギーを使わずに行うことは理論的には可能であることが分かりました。しかし、4番目の、1〜3で行った動作をリセッ トして次の観測に備える工程だけはエネルギーが必要であることがその後示されます。1〜3は、一発芸としては可能ですが、1〜4を繰り返し行うには観測結果を 一 度リセットする必要があり、そのためにはエネルギーを必要とするというのです。詳細は省略しますが、結局、1〜4をひとまとめにして分子の運動の観測と定義す れば、マックスウェルの悪魔は、扉の開け閉めにはエネルギーを使わないとしても、分子の速度という情報を繰り返し得るためにはエネルギーを使わざるを得ないこ とが示され たのです。やはり、エントロピーを下げるためにはエネルギーが必要であるということに落ち着いたわけです。
マックスウェルの悪魔は、当初、熱力学の第2法則を破るメカニズムがあるか?という問題提起だったのですが、現在では、エネルギーを使って情報を手にい れ,それによって気体分子に直接働きかけることなくその動きを制御し、エントロピーを下げるメカニズムに関する問題、と理解されています。
クーラーや冷蔵庫のように、電気のエネルギーを使えば、低温源から高温源へと熱を流し、エントロピーを下げることができます。しかし、電気のエネルギーを 使っ たことで生じるエントロピーがそれを上回り、全体としてのエントロピーは増大しています。マックスウェルの悪魔も、したがって情報を得るためにエネルギーを使 い、それで生じたエントロピーを加味すれば、全体としてはエントロピーはやはり増大しているということになります。しかし、どれだけ増大するかという点まで考 えると、情報を得るためのエネルギーは比較的小さくて済むことが多く、エントロピーの増大を低く抑えることができます。エントロピー増大を低く抑えながら、局 所的にエントロピーの低い状態を作り出す方法の一つとして情報が役に立つだろうことを、このことは示唆しています。そしてさらに、エントロピーは 「情報」と密接 に関係した物理量であることも示唆しているのです。
(注)スーパーコンピュータは、膨大の情報を高速に処理するため進化し続けています。しかし、そこ
で問題となるは、消費電力の増加と排熱の増加です。スーパーコンピュータの進化には、電力設備と冷却設備の大幅な増強が必要となります。また、身近な例でも、
パソコンをしばらく使うとかなり熱くなることはよく経験することです。情報を得るためのエネルギーは比較的小さくて済むとはいえ、高度な情報を高速に処理し、
結果を得ようと思えば思うほど多くのエネルギーを必要とし、多くのエントロピーを排出することになります。
マックスウェルの悪魔について、2010年、日本で画期的な実験が行われました。最先端の話ですので全容を理解することは難しいのですが、その雰囲気だ
けでも感じていただきたいと思い、当時の新聞記事をそのまま以下に引用します(マイナビニュース 2010/11/19)。
中央大学と東京大学の研究チームは、微細加工技術とサブミクロンスケールのリアルタ
イム制御システムを組み合わせることで、「マックスウェルの悪魔」と呼ばれ
る概念を実験で実現し、情報をエネルギーに変換することに成功。情報を媒介して駆動する新規ナノデバイスの実現の可能性を示した。
"マックスウェルの悪魔"
は、19世紀の物理学者ジェームズ・マックスウェルが1867年に考えた創造上の生き物で、分子の動きを見分けることができ、例えば
温度差のないところからエネルギーを使わず温度差を作り出し仕事をさせることができるとされ、熱力学に根本的な疑問を投げかけた。それから約150年を経て、
この疑問は解決されたが、情報とエネルギーの関係を考える多くの研究につながった。
車のエンジンは燃料を燃やして温度差を作り、これによりピストンを動かして動作する。しかし、温度差がなければピストンは動かず、エネルギーを取り出すこと はできない。これは熱力学第2法則 (エントロピー増大則) として知られ、科学における最も基本的な法則の1つとなっている。しかし、1867年、物理学者の ジェームズ・クラーク・マックスウェルは、仮想的な悪魔 ("マックスウェルの悪魔") を考え、この法則に疑問を突き付けた。この悪魔 は、分子の動きを観察し、それに応じてシステムを制御する。すると、温度差がないところからエネルギーを取り出せ、熱力学第2法則を破ることができるように見えてしまう。 これは、科学史上の重大なパラドックスとして知られ、熱力学第2法則に根本的な疑問を突き付けることとなった。それから約150年が経ち、マックスウェルの悪 魔はパラドッ クスではなく、悪魔が情報を処理するのに必要なエネルギーを含めれば、熱力学第2法則が破れないことが判明した。ただし、その理解の過程で、測定で得た情報に 基づいて制御を行うこと (フィードバック制御) により情報をエネルギーに変換できるという概念が生まれた。だが、科学的に重要なものであるにも関わらず、この 情報-エネルギー変換は未だに実現できていないのが実情であった。
実験の概念はまず、らせん階段の上で熱揺らぎによってランダムに運動(ブラウン運動)する粒子を考える。粒子は上にステップしたり下にステップしたりする が、 勾配があるので、平均的には階段を下る。しかし、例えば、粒子の位置を測定し、粒子が上にステップしたら粒子の後ろに壁を置く。再び、粒子が上にステップした ら粒子の後ろに壁を置く。これを繰り返すと、粒子に階段を登らせることができると期待できる。壁を置くのに理想的にはエネルギーが必要ないことが知られてい る。したがって、外からエネルギーを供給せずに、粒子に階段を登らせることができる。これは、フィードバック操作により情報をエネルギーに変換することで、粒 子を駆動できたと解釈できる。
図9.2 情報からエネルギーを生み出す実験の原理
マックスウェルの悪魔は「選別」あるいは「選択」という行為によってエントロピーを減少させ、ひいては秩序を生み出していると言えます。当初、マックスウェ
ルは、その「選択」という行為の重要性に気づきませんでしたが、その後の研究者たちによってその重要性が気づかれたというわけです。実は、この「選択」という
行
為は、われわれが普段「情報」とよんでいるものと密接に関係しています。そこで、マックスウェルの悪魔の話はここまでとし、少し寄り道をして、後半は情報理論という工学の
分野で
扱われる情報のエントロピーというお話しをします。これにより、エントロピーが「情報」と密接に関連した量であること、「選択」という行為がこれらと密接に関
連していることなどがわかっていただけるかと思います。
(1) いきなりですが、情報理論では、情報をもたらす事象の生起確率(起こる確率)\(p\) を使って、その事象が起こったと知らされたとき得る情報量を \(I(p) = - \log_{2} p \) (単位 bit;ビット) と定義します。この式が意味するところを、具体的な例の中で理解していきましょう。
〔例1〕コインを投げるまでは表が出るか、裏が出るかわかりません。そこに表が出たという情報を得たとしたとき、表が出る確率が \(p =
\frac{1}{2} \) なので、\( I(p) = - \log_{2} \frac{1}{2} = 1 \) ビットの情報を得たといいます。
〔例2〕同様に、サイコロは投げるまでは何の目が出るかわかりません。そこにサイコロで5の目が出たという情報を得たとすると、5の目が出る確率が
\(p = \frac{1}{6} \) なので、\( I(p) = - \log_{2} \frac{1}{6} = 2.59 \)
ビットの情報を得たことになります。コインの裏表の情報よりも、サイコロの目の情報の方が、情報量が2.59倍も大きいということになります。
〔例3〕同じサイコロの場合でも、偶数の目か奇数の目かだけに興味がある場合、5の目が出たというのは奇数の目が出たという意味しかありませんので、奇数の目
が出る確率が \(p = \frac{1}{2} \) なので、\( I(p) = - \log_{2} \frac{1}{2} = 1
\) ビットの情報を得たということになります。
〔例4〕必ず起こる出来事が起こったという場合は \( p=1 \) なので、\( I(p) = - \log_{2}1 = 0
\) ビットで、情報量はなしということです。
すなわち \( I(p) \geq 0 \) で定義されていることになります。
結局、情報量とは、ある事象が起こる確率にかかわる量で、どの事象が起こるだろうかと推定しているときのわからなさの度合いに関係した量といえます。しかし、なぜ確率そ
のもの ではなく、その対数で表現されるのでしょうか。
(2) そこで2つの独立な情報源A、Bがある場合を考えます。A、Bにはそれぞれ情報をもたらす事象が複数あり、その中のある事象が起こる確率がそれぞれ \(p_{A}\)、\(p_{B}\) とします。すると、それらが同時に起こる確率は \(p_{A} \times p_{B} \) となります。このとき、それらが同時に起こったと知ったときの情報量は次式で与えられます。
\( I(p_{A}, p_{B})= -
\log_{2}p_{A}×p_{B} = - \log_{2} \, p_{A} - \log_{2} \, p_{B}=
I(p_{A})+I(p_{B}) \)
したがって、同時に起こったことによってもたらされた情報量 \(I(p_{A}, p_{B} ) \) は、個別に起こったときにそれぞれから得られる情報量 \( I(p_{A}) \) と \(I(p_{B}) \) の和で表されます。
〔例 5〕4行3列で裏返して並べたトランプがあるとします。どこかに♡Aがあります。
@ 右端の列にあると知らされたときの情報量は
どの列にあるかは確率 \( p = \frac{1}{3} \) ですので、
\( I(p) = - \log_{2} \frac{1}{3} = 1.58 \) ビット となり
A 上から2行目にあると知らされたときの情報量は
どの行にあるかは確率 \(p = \frac{1}{4} \) ですので、
\( I(p) = - \log_{2} \frac{1}{4} = 2 \) ビット となります。
B 一方、右端の列の上から2行目にあると知らされたときの情報量は
12枚のカードのうちのどの場所のカードであるかは確率 \(p = \frac{1}{12} \) ですので、
\( I(p) = - \log_{2} \frac{1}{12} = 3.58 \) ビット
となります。
ところで、右端の列にあることをまず知って(このとき \(1.58\) ビットの情報を得ます)、さらに上から2行目であることを知った(このときさらに2ビットの情報を得ます)と考えれば、\( 1.58 + 2 = 3.58 \) ビットの情報を得たこととなり、Bの行と列の両方について同時に知ったときの情報量と一致します。式で表せば、
\( I(p) = - \log_{2}
\frac{1}{12} = - \log_{2} \frac{1}{3} \times \frac{1}{4} = -
\log_{2} \frac{1}{3} - \log_{2} \frac{1}{4} = 3.58 \) ビット
となります。これを情報の加法性と呼びます。対数という関数は、積を和に変換する機能がありますので、情報を生起確率と結び付け、情報の加法性を認めると、こ
うした情報量の定義がもっとも合理的といえるのです。
(3) 場合の数あるいは選択肢の数と情報量
ある情報源から生起される事象の場合の数が \(W\) で、しかもそれらがすべて等確率で起こるとき、個々の事象の生起確率は \(p =
\frac{1}{W} \) となります。したがって、\(W\) 個の可能な事象のうちある事象が起こったと知らされたとき得られる情報の量は、\( -
\log_{2} \frac{1}{W} = \log_{2} W \) となります。すなわち、すべての事象
が等確率で生起する場合、情報量は、生起される事象の場合の数(あるいは選択肢の数と言い換えるとわかりやすい場合もあります)の対数として定義されます。
〔例6〕ある人に 1 から 64(=26)までの数から一つを決めてもらい、もう一人がその数を yes または no
で答えられる質問をして当てることを考えます。yes または no の答えで得られる情報量は、選択肢(あるいは場合の数)が2つなので、\(
\log_{2} 2 = 1 \) ビットです。一方、問題は選択肢の数が64で、そのうちの一つを特定したときの情報量は、\( \log_{2} 64
= 6 \) ビットです。したがって、最大でも6回の yes または no
で答えられる質問をすることで、その数を言い当てることができる(6回の質問で6ビットの情報を得ることができるから)はずです。
具体例を考えましょう。決めた数字を18としましょう。質問と答えを書きます。
@32より大きい数ですか?−No 《1〜32の数です》 《…》は得られた情報
A16より大きい数 ですか?−Yes 《17〜32の数です》
B24より大きい数ですか?−No 《17〜24の数です》
C20より大きい数ですか?−No 《17〜20の数です》
D18より大きい数ですか?−No 《17〜18の数です》
E18ですか?−Yes
となります。1〜64
を半分にしてそのどちらのグループかを尋ね、分かると今度は、含まれていたグループを半分にして同じことを繰り返すわけです。その都度、選択肢の数は半分となり、情報量
log2(選択肢の数) も1ビットずつ減っていきます。
(4) 情報のエントロピー(得られる情報量の期待値)
ある情報源から \(W\) 種類の事象が生起する可能性があり、それらの生起確率がそれぞれ \(p_{i}\)
(\(i=1,2,...,W\)) で与えられるとき、この情報源のもつ平均の情報量、あるいは得られる情報量の期待値は
\[ H = \sum_{i=1}^{W} - p_{i} \log_{2} p_{i} ただし
\sum_{i=1}^{W} p_{i} = 1 \]
となります。これを情報のエントロピーと呼びます。
特に、すべての事象が等確率で生起する場合、すなわち \( p_{1} = p_{2} = \cdots = p_{W} =
\frac{1}{W} \) のとき、情報のエントロピーは最大となり、\( H = \log_{2} W \) となります。
情報のエントロピーは、得られる情報量の平均値(期待値)を意味しています。得られる情報量 \( - \log_{2} p_{i} \)
とそれが起こる確率 \( p_{i} \)
を掛けたものをすべての事象について足すことで得られます。また、すべての事象が等確率で生起する場合、情報量は、生起される事象の場合の数の対数で与えられます。
(注)ある量とそれが起こる確率をかけて、すべての場合について加えると平均値となるというのが分かりにくいという方のために、簡単な例をあげておきます。
いま、体重が50kgの人が3人、60kgが5人、70kgが2人います。この10人の平均体重
を考えます。
\( ( 50 \times 3 + 60 \times 5 + 70 \times 2 ) ÷10 = 50 \times
\frac{3}{10} + 60 \times \frac{5}{10} + 70 \times \frac{2}{10} \)
となります。(体重)×(その体重である確率) をすべての体重について和をとるという形になっています。
〔例7〕情報のエントロピーを、事象が2つの場合、3つの場合について計算してみましょう。生起確率が異なる場合について計算してみると以下のようになりま
す。
2つの事象の生起確率 3つの事象の生起確率
A B 情報エントロピー A B
C 情報エントロピー
1/2 1/2 1 ビット
1/3 1/3 1/3 1.58 ビット
1/5
4/5 0.72
2/5 2/5 1/5 1.52
2/5
3/5 0.97
3/5 1/5
1/5 1.37
すべての事象が等確率で起きるとき、情報のエントロピーは最大となることが証明されています。生起確率に偏りがあると情報のエント
ロピーは小さくなります。
〔例8〕見た目同じ形の \(N\)
個の玉があり、1つを除き、すべて同じ重さであるとします(例外の玉は他の玉より軽いとします)。これを何回天秤で計量すれば軽い玉を確実に見つけられるでしょうか。
まず、同じ形のもの (1個でも、複数個でもよい。ただし複数個の場合は両天秤皿に同数が乗るものとします) を天秤で計ったとき得られる情報量を考えてみましょう。天秤で重さを比較する試行によって、「右の皿」「左の皿」「天秤外」の3つのグループのどこに軽い玉があるかを知る ことができます。したがって選択肢は3ですから、1回の試行で得られる情報量は \( - \log_{2} \frac{1}{3} = \log_{2} 3 ≒1.6 \) ビットとなります。そして \(k\) 回試行すれば、\(k \log_{2} 3 = 1.6 k \) ビットの情報を得ることができます。(3つのグループに含まれる玉の数が異なることを考慮すると、得られる情報量は多少異なってきますが、ここではそこまで考えないこと にします)
たとえば、同じ形の7個の玉があり1つだけ軽い玉が混じっているとき、その軽い玉を偶然みつける確率は \( \frac{1}{7} \) ですので、それを知ったときの情報量は \( - \log_{2} \frac{1}{7} = \log_{2} 7 = 2.8 \) ビットとなります。一方、\( k = 2\) 回の試行で \(1.6 \times 2 = 3.2 \) ビットの情報が得られるますので、2回の試行で軽い玉を見つけることができるはずです。
実際、7個を(3個、3個、1個)にわけ、3個同士を天秤にかけます。もし釣合えば、残り1個が軽いとわかります。釣合わなければ、軽い方の3個のうちか
ら2
個を選び、1個ずつ天秤皿に乗せます。釣合えば残り1個が軽い玉ですし、釣合わなければそれで軽い方が探している玉ということになります。結局、2回の試行で
軽い玉を特定することが可能となります。
〔例9〕 立方体の容器が (A) あるいは (B) で示したように積み上げられています。\(N\)
個の粒子がこれら立方体の容器のどれかにバラバラになってはいっています。一つの容器に複数個入っていてもいいですし、まったく
入っていない容器があっても構いません。すべての粒子について、どの容器にあるか知ったとき得られる情報量の期待値、すなわち情報のエントロピーは
(A)、(B) それぞれどのくらいでしょうか。
図9.4 大きな直方体の空間を小さな立方体で区切り、\(N\) 個の粒子がどこにあるかを考えます
一つの粒子に注目します。どの立方体にあるか、その場合の数は (A) \(V_{1} = 70 \)、 (B) \( V_{2} =
160 \) ですから、情報のエントロピーはそれぞれ \( H_{1} = \log_{2} V_{1} = \log_{2} 70 \)、 \(
H_{2} = \log_{2} V_{2} = \log_{2} 160
\) となります。N個の粒子はそれぞれ独立ですので、情報の加法性により、全情報のエントロピーは \( H_{1} = N \log_{2}
V_{1} = N \log_{2} 70 \)、 \( H_{2} = N \log_{2} V_{2} = N \log_{2} 160 \)
となります。したがって、両者の情報のエントロピーの差は
\( H_{2} - H_{1} = N \log_{2} V_{2} - N \log_{2} V_{1} = N \log_{2}
\frac{V_{2}}{V_{1}} = N \log_{2} \frac{160}{70} = N \log_{2} \frac{16}{7}
\) となります。
ところで、第10回講義資料の 10.2 エントロピーの計算 の例 (1)で、体積が \( V_{1} \) と \( V_{2} \)
のエントロピー差を求めました。それぞれのエントロピーの値を \( S_{1} \)、\( S_{2} \) とすると、その差は
\( S_{2} - S_{1} = nR \log \frac{V_{2}}{V_{1}} \)
でした。ここで、モル数 \(n\) は全分子の数を \(N\)、アボガドロ数を \(N_{AV}\) とすると \( n =
\frac{N}{N_{AV}} \) と表されますので
\( S_{2} - S_{1} = \frac{R}{N_{AV}} N \log \frac{V_{2}}{V_{1}} \)
となります。\( H_{2} - H_{1} \) と \(S_{2} - S_{1} \) を比較すると、両者は、係数 \(
\frac{R}{N_{AV}} \)
と対数の底が違うにすぎません。エントロピーという量が、情報と密接に関わっていたことが、こうして示されたわけです。
物理学におけるエントロピーはあくまでも分子の熱運動に基礎をおいたものです。したがって、部屋の散らかりは物理学的な意味でのエントロピーとは異なり、情
報理論的なエントロピーであると前回お話ししました。しかし、上で引用した新聞記事のように、ミクロの世界にいくと、物理学的エントロピーと情報理論的なエン
ト
ロピーは相互に関連し合い、分子の熱運動に関する情報を観測することで、情報をエネルギーに変えることが可能となります。また、前回の冒頭でエントロピーに関
して盛んに微視的状態数に言及していた理由も、情報量が場合の数の対数で表現されることから納得できたのではないでしょうか。
ところで、冒頭に掲げた生命現象とエントロピー増大の法則との関係は結局どうなったのでしょうか。マックスウェルの悪魔に一途の望みを託したのですが、残念 ながら解決しませんでした。生命現象とエントロピー増大の法則との関係については次回へと先送りです。今回はここまでとします。
ブ
ラウン・ラチェット(外部リンク Wikipedia)