|
Скачать 1.85 Mb.
|
^
В самом общем понимании информация – это совокупность сведений, уменьшающих первоначальную неопределенность наших знаний об объекте. Материальными носителями информации являются информационные сигналы, а взаимодействие между объектами, связанное с передачей-приемом (обменом) информационных сигналов, называется информационным взаимодействием. В природе имеют место четыре фундаментальных типа взаимодействия, связанные с обменом между объектами (объектом и внешней средой) веществом-импульсом-энергией-информацией. Все прочие взаимодействия осуществляются только посредством данных взаимодействий. При этом первые три взаимодействия подчиняются законам сохранения (являются симметричными). Информационные взаимодействия отличаются тем, что объект, передавший информацию, не теряет ее, в то время как объект, участвующий в информационном взаимодействии, получает передаваемую информацию. Очевидно, что информационные сигналы могут быть представлены такими материальными формами, как вещество и/или энергия. Определенная последовательность этих форм, используемая для передачи информации, получила название кодов. Минимальное их количество кодовых знаков (символов), необходимое для построения простейшей кодовой системы, позволяющей передать информацию, равно двум (например, точка и тире в азбуке Морзе; уровень сигнала, соответствующий нулю и единице в технике связи и т.д.) – двоичное кодирование, в котором единица информации (двоичный знак) называется “бит”. Полное количество информации (сообщение), которое можно передать/получить в двоичном коде последовательностью из N двоичных знаков равно 2N. С точки зрения математической статистики количество информации ^ бит, можно определить через вероятность случайного появления данного сообщения. В частности, если все сообщения равновероятны, то вероятность случайного появления заданной последовательности из N двоичных знаков pN=2N. Тогда
Если сообщение формируется в коде, состоящем более чем из двух знаков, информационная емкость одного символа
а информационная емкость всего сообщения (по К. Шеннону)
где ^ – постоянная величина, определяемая выбором основания логарифма с. В частности, переходя к натуральному логарифму и вводя единицу информации 1 нат (1 нат = ln2 бит), получим:
где pi – вероятность появления в сообщении i-го символа кодовой таблицы. При известной плотности вероятности (функции распределения) f(x) сигналов, определенной на области , уравнение для информационной емкости сообщения представляется в общем виде типа
В то же время сообщение можно рассматривать как физическую систему, состоящую из N компонент (символов), характеризуемую такой функцией состояния, как энтропия. При адекватности полученного сообщения (последовательности символов) передаваемому, состояние данной системы следует рассматривать как полностью определенное с точки зрения термодинамики и статистической физики энтропия адекватного сообщения (основного состояния системы) S=0. При наличии сбоев (при потере и/или перестановке символов) происходит частичная потеря информации, соответствующая росту хаотичности системы, т.е. росту ее энтропии. При полной потере информации, наступающей при перестановке всех N символов сообщения, энтропия системы в таком состоянии, в соответствии с (2.20), будет определяться как
«Информационная» энтропия, как и энтропии «термодинамическая» и «статистическая», обладает свойством аддитивности (8.21). Проведенное рассмотрение показывает, что выражения для количества информации (8.22) и энтропии (8.23) имеют один и тот же вид, однако информация и энтропия являются в некотором смысле антагонистами – потеря информации приводит к росту энтропии системы, а рост энтропии свидетельствует о потере информации. В предельном случае либо энтропия минимальна (S=0), либо информация отсутствует (I=0). Это позволяет сформулировать еще один своего рода закон сохранения – закон сохранения энтропии и информационной емкости системы:
Если иметь в виду энтропию как меру неопределенности (хаоса), а информацию как меру упорядоченности (логоса), то об информации можно говорить как о негэнтропии (негативной энтропии). Энтропия системы это то количество информации, которого не хватает для ее полного описания. ^ Вопрос о взаимосвязанности “термодинамической”, ”статистической” и “информационной” энтропий можно рассмотреть на примере мысленного эксперимента, предложенного Дж. Максвеллом. Смысл его в следующем. Пусть имеет сосуд с N1 “горячими” и N2 ”холодными” молекулами газа, распределенными по объему сосуда случайным образом. Разделим сосуд пополам перегородкой с малым отверстием и будем ожидать, когда в одной части сосуда соберутся только “горячие” молекулы, а в другой только ”холодные”. Элементарный статистический расчет в приближении невзаимодействующих молекул дает вероятность такого события p=2(N1+N2). Если учесть, что в одном моле вещества содержится 6·1023 молекул, то такое событие невозможно. Однако если к отверстию в перегородке приделать дверцу и поставить “привратника” (демона Максвелла), пропускающего “горячие” молекулы только в одну стороны, ”холодные” только в другую, то такое событие наступит в течение конечного времени. В результате энтропия системы уменьшится. Казалось бы, здесь существует противоречие, связанное с нарушением второго начала термодинамики. Однако оно существует, если рассматривать только систему, состоящую из молекул в замкнутом объеме. Если же это будет система молекулыдемон, то последний должен пропускать молекулы в требуемые части сосуда на основании информации о “степени нагретости” молекулы, а за информацию надо платить, в частности, энтропией (энергией). 8.4 Особенности термодинамики биологических систем 8.4.1 Квазиравновесные состояния и их устойчивость Применительно к неравновесным ТДС можно говорить о стационарном состоянии K-го порядка – таком состоянии системы, в котором из N статистически независимых действующих термодинамических сил K сил остаются постоянными в пространстве и времени, и, соответственно, отсутствуют сопряженные с ними потоки:
Стационарное состояние системы является устойчивым, если в нем система невосприимчива к флуктуациям (случайным кратковременным изменениям значений управляющих параметров системы концентраций компонентов, температуры, скорости протока и т.п.). Если же воздействие флуктуаций приводит к спонтанному переходу системы в качественно новое стационарное состояние, то исходное стационарное состояние неустойчиво. В теории систем разработаны методы устойчивости состояний, в частности – используемый в физике открытых систем второй метод А.М. Ляпунова, основанные на анализе функций состояния системы. Признак устойчивости стационарного состояния по Ляпунову: если для стационарного состояния физической системы, описываемого совокупностью параметров (… ![]() ![]() ![]() ![]()
Для ТДС такой функцией состояния выступает энтропия. В частности, для адиабатически изолированной системы в состоянии термодинамического равновесия энтропия S достигает своего экстремального значения S=S0, а флуктуация энтропии S=0. Достаточным признаком устойчивости стационарного состояния является условие S/t0. В живом организме самопроизвольно идут только те процессы, при которых изменение свободной энергии1 отрицательно (экзергонические процессы). Процессы, при которых изменение свободной энергии положительно (эндергонические процессы), самопроизвольно происходить не могут для их протекания необходим приток энергии извне2. Таким образом, биосистема в своем развитии находятся в состоянии постоянного энергетического обмена с внешней средой, поглощая свободную энергию, приток которой больше тепловых потерь системы, и проходя через ряд стационарных состояний. При этом энтропия системы изменяется как за счет обмена с внешней средой (dextS), так посредством необратимых внутренних процессов (dintS), т.е. (согласно Шредингеру)
а скорость изменения энтропии
где локальное производство энтропии. Прирост энтропии в единицу времени в единице объема носит название функции диссипации, а системы, в которых функция диссипации отлична от нуля, называют диссипативными. В таких системах энергия упорядоченного процесса переходит в энергию процесса неупорядоченного, и, в конечном итоге, рассеивается в виде тепла. Биосистема эволюционирует к стационарному состоянию, которое заведомо является неравновесным (в силу открытости системы) и характеризуется отличными от нуля функциями диссипации. В то же время в данном состоянии все ее термодинамические параметры, в том числе и энтропия, не зависят от времени. В биосистемах всегда dintS>0, а условие dintS=0 выполняется только в случае равновесного протекания обратимых процессов. Так как изменение энтропии за счет обмена энергией с окружающей средой dextS может быть как положительным, так отрицательным, общая энтропия системы может как возрастать, так и убывать. Однако общее уменьшение энтропии биосистемы возможно только в том случае, когда сопряженные процессы во внешней среде являются эндергоническими и протекают быстрее внутренних процессов. Ситуация, когда dextS=0 соответствует случаю изолированной системы. Очевидно, что чем выше скорость возрастания энтропии биосистемы, тем более необратимы происходящие в ней процессы. Суммарное изменение энтропии в надсистеме “биообъектвнешняя среда” всегда положительно. В соответствии с теоремой Пригожина, в стационарном состоянии при условиях, близких к термодинамическому равновесию прирост энтропии за счет внутренних необратимых процессов достигает отличного от нуля минимального значения. А так как в стационарном состоянии S/t=0, следовательно dintS=dextS, т.е. возрастание энтропии открытой неравновесной системы компенсируется потоком энтропии их внешней среды. С другой стороны, в качестве признака устойчивости стационарности состояния может рассматриваться условие
откуда следует, что если система находится в стационарном состоянии, то она не может самопроизвольно выйти из него за счет необратимых внутренних изменений, а при неизменных внешних условиях отклонения системы от стационарного состояния должны индуцировать внутренние процессы, возвращающие систему в данное состояние (саморегуляция системы). Это полностью соответствует принципу Ле-Шателье1. В условиях термодинамического равновесия изменение энтропии за счет энергообмена с внешней средой dextS=Q/T, а внутренние изменения dintS связаны с химическими процессами и совершаемой системой работой, приводящими к изменению энергии Гиббса G (полного термодинамического потенциала G=U+PVTS):
^ Еще раз подчеркнем, что для биосистем возможны только такие спонтанные процессы, при которых энтропия возрастает. Однако встречаются ситуации, реализация которых с точки зрения энтропийных соображений невозможна – это, например, процесс транспорта веществ, биосинтез и т.д. – в данных процессах энтропия уменьшается, а свободная энергия биосистемы увеличивается. Существование таких процессов оказывается возможным вследствие так называемого энергетического сопряжения. Суть этого явления состоит в том, что одновременно протекают две реакции, одна из которых (отдельно взятая) невозможна из термодинамических соображений. Энергетическое сопряжение возможно при соблюдении двух условий: 1 обе реакции должны иметь общий химический компонент; 2 энергия, выделяемая при термодинамически возможном процессе, должна быть больше энергии, потребляемой в термодинамически невозможном процессе. В общем случае производство энтропии определяется соотношениями (2.12) и (2.26). В частном случае химической реакции внутреннее изменение энтропии
где l и cl химический потенциал1 и молярная концентрация l-той компоненты реакции, химическое сродство2, l стехиометрические коэффициенты реакции3, а параметр получил название координаты химической реакции, характеризующей степень ее протекания. Величины /T имеют смысл термодинамических (химических) сил. Если (по аналогии с механикой) ввести скорость химической реакции как vl=dl/dt, то локальное производство энтропии
Очевидно, что протекание в системе эндергонической (1v1<0) реакции возможно при наличии энергетически сопряженной экзергонической реакций (2v20) при условии, что 1v1+2v2>0. С точки зрения термодинамики состояние химического равновесия характеризуется равенством нулю химических сил (=0). Близость химического процесса к состоянию равновесия означает выполнение условия <<RT. Скорость химической реакции в квазиравновесном состоянии системы в виде:
Воспользовавшись соотношениями Онсагера и приведя матрицу кинетических коэффициентов Lli и тензор химических напряжений (i/k)T,P к диагональному виду, получим:
где ![]() Решение уравнения (2.31) дает нам кинетику приближения системы к равновесному состоянию:
С другой стороны, так как согласно теореме Пригожина любая флуктуация может только уменьшать энтропию системы вблизи равновесного состояния (l/l0), то и внутренние флуктуации энтропии
Очевидно, что для открытых биологических систем в стационарном состоянии это соответствует условию (6.3). Для локального производства энтропии , связанного с l-тыми термодинамическими силами d=lJldFl0. Применительно к химической реакции это условие может быть записано как
а в условиях равновесия в стационарном состоянии все скорости химических реакций ![]()
А так как вблизи равновесного состояния системы флуктуация любых ее параметров приводит только к уменьшению энтропии. Лекция 9 Преобразование энергии в биосистемах 9.1 Нахождение движущих сил и обобщенных скоростей биологических процессов с позиций энергодинамики. 9.2 Нахождение уравнений «пассивного транспорта» в биосис-темах. 9.3 Установление взаимосвязи химических реакций с процессами метаболизма. 9.4 Описание процессов преобразования энергии в биосистемах. ^ Объектом исследования энергодинамики являются пространственно неоднородные среды, рассматриваемые как единое неравновесное целое [8]. В таких системах наряду с процессами внешнего энергообмена (теплообмена, объемной деформации, массообмена и т.п.) происходят процессы релаксации и совершения полезной работы (внешней или внутренней, полезной или диссипативной, механической или немеханической). Эти процессы сопровождаются перераспределением экстенсивных термостатических параметров θi (энтропии S, масс k-х веществ mk или числа их молей Nk, заряда θe, импульса и т.д.) между частями системы. Они напоминают перетекание жидкости из одной части сосуда в другую и сопровождаются удалением системы от равновесного состояния или приближением к нему даже при квазистатическом их характере. Указанное перераспределение выражается в изменении положения центра величин θi, определяемого радиус-вектором Ri Поэтому полная энергия неоднородной системы Е = Е(θi,Ri), т.е. является в действительности функцией не только 'термостатических' переменных θi, но и пространственных координат Ri. Частные производные от энергии системы Е по переменным θi определяют среднемассовые значения обобщенных потенциалов системы Ψi ≡ ∂Е/∂θi (таких как абсолютная температура системы T, давление p, химический потенциал k-го вещества Мk и т.п.), а аналогичные производные по пространственным координатам Ri - силы Fi ≡ - ∂Е/∂Ri в их обычном (ньютоновском) понимании. Поэтому полный дифференциал энергии пространственно неоднородной системы выражается в общем случае тождеством: dЕ ≡ Σi Ψi dθi - Σi Fi∙dRi , (9.1) где i =1,2,...,n - число независимых форм энергии системы. Производные Ψi ≡ ∂Е/∂θi в выражении (9.1) находятся в условиях постоянства Ri, т.е. в отсутствие процессов перераспределения. Это означает, что потенциалы Ψi в таких процессах изменяются в одинаковой мере во всех частях системы (как и в однородных системах). Такого рода изменения состояния напоминает равномерное выпадение осадков на неровную поверхность. Частным их случаем являются равновесные (обратимые) процессы теплообмена и массообмена системы, работа всестороннего сжатия или расширения системы, а также работа ввода свободного заряда или вещества в данную область системы с определенной температурой, давлением, химическим и т.п. потенциалом. Таким образом, в частном случае однородных систем выражение (9.1) переходит в объединенное уравнение 1-го и 2-го начал классической термодинамики открытых систем в форме соотношения Гиббса. Вторая сумма (9.1), напротив, обязана своим происхождением пространственной неоднородности исследуемых систем. Ее члены также характеризуют элементарную работу. Она определяется, как и в механике, произведением результирующей силы i - го рода Fi на вызванное ею перемещение dRi объекта ее приложения (в данном случае величины θi). Однако эта работа отлична от работ, входящих в первую сумму (9.1). Поскольку производные Fi ≡ - ∂Е/∂Ri находятся в условиях постоянства параметров θi, такая работа состоит лишь в их перераспределении по объему или массе системы, т.е. в переносе некоторой их части из одной области системы в другую. Тем самым энергодинамика вводит в рассмотрение новый класс процессов переноса, носящих векторный (направленный, упорядоченный) характер. Специфика уравнения (9.1) состоит в том, что его члены уже не определяют теплоты или работы процесса, как это было в случае обратимых процессов. Напротив, с самого начала признается, что параметры θi и Ri могут изменяться в общем случае как вследствие внешнего энергообмена, так и при протекании внутренних самопроизвольных процессов. Это находит отражение в уравнениях баланса этих величин, которые аналогичны по смыслу уравнениям баланса энтропии. Такой подход означает отказ от расчета внешнего энергообмена системы по изменению параметров θi и Ri, и переход к непосредственному измерению потоков энергоносителя через границы системы. Понятия термодинамической силы Хi и потока Ji в энергодинамике вводятся на основе понятия обобщенной скорости какого-либо i-го процесса переноса vi ≡dRi/dt. В таком случае выражению (9.1) можно придать вид: dЕ/dt ≡ Σi Ψi dθi/dt - Σi Хi∙ Ji . (9.2) Отсюда следует, что термодинамические силы Хi = Fi/θi , т.е. имеют смысл силы Fi, отнесенной к единице переносимой ими величины θi , а потоки Ji = θivi - смысл произведения этой величины на скорость ее переноса vi. Таким образом, понятие силы становится в энергодинамике единым для всех технических дисциплин, а понятия потока и обобщенной скорости процесса приобретают, напротив, различный смысл. Одновременно устраняется свойственный ТНП произвол в выборе движущих сил и обобщенных скоростей процессов переноса. Так, если в первую сумму (9.1) входит член TdS, характеризующий в объединенном уравнении 1-го и 2-го начал классической термодинамики обратимый теплообмен, то во 2-й сумме (9.2) появится слагаемое Хs∙Js, где Хs = - gradТ - удельная термодвижущая сила, Js = Svs - поток энтропии. Аналогичным образом, если в первую сумму (9.1) входит член pi dV, характеризующий обратимую работу расширения, то во 2-й сумме (9.2) появится дополнительный член Хv∙Jv, характеризующий процесс сжатия одних и расширения других частей системы, например, желудочка и предсердия (Хv = -gradp, Jv = - объемный поток). Точно так же, если в первую сумму (9.1) входит, член МkdNk, характеризующий обратимый перенос k-го вещества через границы системы, то во 2-й сумме (9.2) появится слагаемое Хк∙Jк, характеризующее, работу разделения этого вещества в клеточной мембране или в диализаторе (Хк = - gradMk, Jк =Nkvk - поток k-го вещества). Подобным же образом могут быть найдены движущие силы в так называемых 'сложных' системах, совершающих помимо работы расширения другие виды работ. Так, если в 1-ю сумму (9.1) включить член φdθе, характеризующий обратимую работу ввода электрического заряда θе в область со средним электрическим потенцииалом φ, то во второй сумме (9.2) появится член Хе∙Jе, характеризующий элементарную работу разделения зарядов в клеточной мембране или в гальваническом элементе (Хе ≡ Е = - gradφ - напряженность электрического поля, Jе - электрический ток). Нетрудно заметить, что члены второй суммы (9.2) могут иметь различный знак в зависимости от того, совершает ли система работу или работа совершается над системой. В этом принципиальное отличие предлагаемого метода от ТНП, в которой члены Xi∙Ji всегда положительны (как и 'производство энтропии'). Это освобождает от насилия над термодинамикой при приложении уравнения к биосистемам, потребляющим свободную энергию из окружающей среды. В этих случаях Xi∙Ji < 0, что противоречит и приводит к несуразностям типа 'производства негаэнтропии' (порядка). Значительное преимущество предлагаемого подхода состоит в том, что при этом отпадает необходимость в составлении громоздких уравнений баланса энергии, массы, заряда, импульса, энтропии и т.д. К тому же открывается возможность находить результирующую F=ΣiFi сил различной природы, что позволяет в последующем упростить уравнения переноса. |