WWW.REFERATCENTRAL.ORG.UA - Я ТУТ НАВЧАЮСЬ

... відкритий, безкоштовний архів рефератів, курсових, дипломних робіт

ГоловнаБіологія, Зоологія, Аграрна наука → Ентропійний і негентропійний принципи інформації в біології - Реферат

Ентропійний і негентропійний принципи інформації в біології - Реферат


Реферат на тему:
Ентропійний і негентропійний принципи інформації в біології
Напрям мимовільного перебігу хімічних реакцій у живий та неживій матерії визначається сукупною дією двох факторів: переходу системи у стан з найменшою внутрішньою енергією і тенденцією, яка пов'язана з досягненням найбільш можливого стану. Макроскопічний стан системи тим ймовірніший, чим більшою кількістю мікроскопічних станів вона може здійснюватись. Зазвичай кількість мікроскопічних станів, яка відповідає певному макроскопічному, дуже велика і визначається не можливістю здійснення цього макростану, а величиною, пропорційною її логарифму. Ця величина називається ентропією і є однією з термодинамічних величин (внутрішня енергія, ентальпія, ентропія і енергія Гіббса), за допомогою яких можна виразити кількісно два зазначених вище фактори [1,2].
Кожна жива клітина уподібнюється найскладнішому хімічному заводу. Управління процесами клітин-заводів здійснюється завдяки колосальним генетично фіксованим інформаційним потокам. Інформація, яка міститься в біологічних об'єктах, є такою великою, що може досягати значних величин за шкалою ентропії. Тому слід очікувати, що інформаційний підхід дозволить пояснити значні потоки теплоти, яка виділяється біологічними об'єктами в навколишнє середовище, природу мутацій, диакінеза генів і хромосом тощо. На початкових стадіях розвитку живих організмів тепловий ефект, яким супроводжується "читання" генетичної інформації такий великий, що його не можна не зафіксувати. Саме на цих стадіях у тварин найбільш інтенсивно відбувається процес поділу клітин, причому збільшення їх кількості іде за експоненційним законом. За цього процесу різко зростає кількість розподіленої інформації [3 - 5].
Поняття інформації можуть бути використані як основи єдиного підходу до різноманітних зв'язків і взаємодій у природі. Живі істоти, наприклад, не можуть існувати без ДНК, РНК сигналів і обміну. Будь-якому біологічному об'єкту можна надати ймовірності, яка характеризуватиме частоту його появи. Тому математичною основою теорії інформації, як відомо, є теорія ймовірності та математична логіка. Одиницею кількості інформації стає так званий біт - кількість інформації, яка усуває невизначеність вибору однієї можливості з двох рівноцінних
(1) I=log2N,
де N - кількість можливих результатів, або
(2) I=log2Pi.
У формулі (2) I - кількість інформації, яку одержуємо при здійсненні i-тої події з N можливих при однакових їх ймовірностях, тобто Pi=1/ N і формула (2) переходить в (1). У загальному випадку кількість інформації визначається за формулою:
(3)? logPi,
де Pi - ймовірність здійснення i-тої події з N можливих. Формули (1) і (2) випадкові для формули (3) при існуванні подій, які є рівноімовірними [5].
З теорії інформації відомо, що кількість інформації, яка вводиться до певної системи, в результаті різних перетворень не збільшується, а може або зменшуватись, або, у кращому випадку, залишатися незмінною. Це пояснюється наявністю перешкод у каналах передачі інформації. Рівень їх різко збільшується, якщо процеси неординарні. У біологічних об'єктах незначні відхилення під час передачі інформації можуть істотно змінити її зміст (якість).
Ентропія ізольованої біологічної системи пов'язана з ймовірністю її стану. Якщо наданий стан біологічної системи може здійснитися N різними засобами (наприклад, різним станом молекули), то зв'язок між ентропією S і числом N може бути виражений формулою:
(4) S = k lnN,
де k - постійна Больцмана.
Формули (4) і (1) збігаються щодо кількості інформації і це невипадково.
Візьмемо визначену фізичну систему з ентропією S, яка може здійснюватись N різними способами. Введемо в цю систему таку кількість інформації I= log2N, щоб із N різних способів здійснення стану системи реалізувався лише один визначений (така система є системою реєстрації наданої інформації). У такому разі в формулі (4) слід прийняти N=1, а це означає, що в цьому випадку S=0, тобто одержуємо повністю упорядковану систему. Таким чином, ентропія системи зменшилась до нуля і трапилось це завдяки одержанню кількості інформації I= log2 N. Отже інформація несе в собі негативну ентропію - "негентропію"(від англійського negative) і для кількості інформації потрібно так вибрати одиниці виміру замість бітів, щоб для випадку, який розглядаємо, було:
S - I = OE (5)
або log2N (бітів)= k lnN = k log2 N ln2, звідки 1 біт = k ln2 = 0,956·10 - 23 Дж/К. Таким чином, кількість інформації, яка надана біологічній системі, з'являється як негативний додаток повної ентропії - це і є негентропійний принцип інформації. Встановлення негентропійного принципу інформації довело, що збіг рівнянь (1) і (4) виражає об'єктивний зв'язок між кількістю інформації і ентропією: обидві величини є мірою організованості біологічної системи, яку розглядаємо.
Для підтвердження цих уявлень необхідно мати хоча б для одного випадку очевидний взаємозв'язок між кількістю інформації та ентропією. У роботах Л. Бриллюена [1] розглядаються процеси перетворення інформації в негентропію і навпаки для різних випадків. Встановлено, що для того, щоб прочитати інформацію, необхідно знову надати їй енергію. Додаткове джерело енергії, необхідне для читання інформації, доставляє негентропію, яка перетворюється у нову інформацію. Для одержання одного біта інформації необхідно витратити енергію W = kT ln 2 = 0,956 10- 23 T (Дж), яка буде виділятися у вигляді теплоти. Для ізольованого біологічного об'єкта другий закон термодинаміки з урахуванням негентропійного принципу інформації слід записати:
(6) ?(S-I) ? 0.
У випадку, який розглядається, протягом розвитку біологічного об'єкта величина I швидко зростає. Це означає, що в середовищі, яке оточує біологічний об'єкт, повинна збільшуватись і ентропія, причому таким чином, щоб ?S>=?І, тобто біологічний об'єкт, який розвивається, повинен виділяти, згідно з першим законом термодинаміки, теплоту ?Q=T?S>=T?I. Запліднена
Loading...

 
 

Цікаве