WWW.REFERATCENTRAL.ORG.UA - Я ТУТ НАВЧАЮСЬ

... відкритий, безкоштовний архів рефератів, курсових, дипломних робіт

ГоловнаІнформатика, Компютерні науки → Теорія інформації та її концепції - Реферат

Теорія інформації та її концепції - Реферат

в різних системах програми розпізнавання одного й того ж образу можуть мати відмінні довжину та час виконання.
Закон 2: будь-яка інформація впливає на її отримувача. Вплив може реалізуватися різними шляхами: а) шляхом запам'ятовування інформації і її використання у наступних діях кібернетичної системи в тому випадку, коли ця інформація стає цінною щодожиттєдіяльності системи; б) шляхом забування цієї інформації (стирання з пам'яті).
Якщо інформація не впливає в даний момент на отримувача, то вона обов'язково вплине тоді, коли виникне ситуація її недостатності (про недостатність див. нижче).
Визначення інформації.
Традиційно під інформацією (від латинського informatio - роз'яснення, виклад, обізнаність) розуміють "одне з найзагальніших понять науки, яке означає певні відомості, сукупність якихось даних, знань і т. ін." Проте очевидно, що таке визначення не можна сприймати як наукове, оскільки воно містить явну логічну помилку (визначення невідомого через невідоме), визначення інформації через відомості, дані, знання, що також вимагають визначень (пов'язані з цим помилки див. у будь-яких тлумачних словниках).
Даючи визначення інформації, найперше потрібно враховувати, що воно повинно охоплювати всі можливі типи кібернетичних систем. Тому запропонуємо визначення цього терміна, а далі перевіримо його на низці прикладів із різними кібернетичними системами - від найпримітивніших (механічних) до найскладніших (людини).
Отже, враховуючи пов'язаність інформації з поняттям знятої невизначеності (ентропії), дамо їй таку дефініцію: інформація - це знята невизначеність, яку кібернетична система у своїй пам'яті декодує та зберігає. Тут невизначеність - це стан, коли кібернетична система повинна отримати інформацію (сигнал), але час його надходження або його зміст в цей момент часу є невідомими.
Перевіримо це на прикладі з механічною системою (наприклад, паровий двигун). Справді, в керованій підсистемі приймач інформації перебуває в стані невизначеності й очікує надходження сигналу, що несе лише один біт інформації. Після надходження певного сигналу інформація про нього передається в керовану підсистему, невизначеність приймача зникає, і він знову переходить у стан невизначеності до моменту надходження нового сигналу. При цьому інформація зберігається в пам'яті підсистеми лише на час передачі інформації (після передачі інформації вона стирається). Отже, такі системи мають лише короткочасову пам'ять, в якій сигнал запам'ятовується лише на час передачі інформації.
Складніші типи систем (наприклад, клітини, електронні мікросхеми - чіпи) можуть отримувати не тільки один конкретний сигнал, а й цілі їх ланцюжки (значно більшу, ніж біт кількість інформації - десятки чи сотні біт інформації). При цьому, оскільки такі системи вже володіють довгочасовою пам'яттю, то така невизначеність вже відображається, тобто з короткочасової може передаватися в довгочасову пам'ять. Тому стосовно таких систем можна вже говорити, що для них знята невизначеність (сигнал, що несе лише один біт інформації) фактично є групою сигналів, тобто відображеною різноманітністю. Отже, можна сказати, що для такого типу систем інформація - це відображена різноманітність, яку кібернетична система в своїй пам'яті декодує та зберігає.
Ще складніші типи систем (наприклад, сучасні комп'ютери, біологічні системи - тварини, люди) можуть сприймати й опрацьовувати не тільки групи сигналів, а й цілі їх комплекси. Для таких систем сигналами (відображеною різноманітністю) стають образи, що містять уже тисячі, десятки чи сотні тисяч біт інформації. Такі сигнали (образи) опрацьовуються в спеціальному підвиді короткочасової пам'яті - сенсорній вже за зовсім іншим принципом (наприклад, як у нейрокомп'ютерах). При цьому процедура декодування сигналу перетворюється в значно складнішу процедуру - розпізнавання образу. Отже, для складних типів систем інформація - це відображені образи, які кібернетична система в своїй пам'яті розпізнала та зберігає.
Звертаємо тут увагу на дві особливості. Перша та, що нерозпізнані образи інформацією не є (вони залишаються лише тлом (фоном) в органах сприйняття системи). Друга особливість та, що не всі образи мусять бути відображеними. Річ у тім, що складні системи, як наприклад людина, можуть самогенерувати образи, які можуть і не бути відображенням реального світу (наприклад, людини в стані галюцинацій може генерувати такі образи). Очевидно, що такі образи також несуть певну інформацію.
Повертаючись до поданого вище псевдовизначення інформації як відомостей, даних, знань тощо, тепер можна сказати, що в отриманій інтерпретації (інформація як образ) вона вже збігається з поданим псевдовизначенням. Справді, відомості, дані й знання можна передати за допомогою ланцюжків образів, якими є, наприклад, знаки, хоча б ті ж лінгвістичні - слова.
У наш час теорія інформації в основному займається тим значенням, яке базується на понятті "знята невизначеність". На друге значення цього терміну ("відомості, знання") спрямовано багато сучасних досліджень, проте вагомих результатів у цьому напрямі поки що немає. Запропонований вище підхід може бути одним з можливих підходів до розв'язання цієї проблеми.
Одиниці вимірювання кількості інформації.
У літературі вказують, що одиницею вимірювання інформації є біт. При цьому йому дають таке визначення: біт - це кількість інформації, яку отримує кібернетична система на запитання, що передбачає лише два можливі варіанти відповіді [так (1) або ні (0)]. Типовим прикладом може служити запитання: "Ви вмієте їздити автомобілем". Варіантів відповіді може бути лише два: так (1) або ні (0).
У наш час в електроніці біти об'єднують у байти - елементи з восьми бітів, що зроблено суто з практичних міркувань, хоча кількість бітів у байтах може бути й зовсім іншою. Інші одиниці: кілобайти, мегабайти, гігабайти, терабайти.
3. Будова повідомлення
Повідомлення - це ланцюжок сигналів визначеної довжини, що позначають (кодують) певну інформацію.
Структуру повідомлення M можна записати як множину сигналів:
M = Oi,
де Oi - сигнал, а i - його порядковий номер (i = 0, 1, 2, 3 … n). Для випадку, коли i = 0, маємо порожнє повідомлення.
Образи повідомлення можуть певним чином об'єднуватися й утворювати групи - слова, речення тощо. При потребі сигнали можуть об'єднувати в певні групи (наприклад, у байти - по 8 бітів). Такий метод використовують у комп'ютерній техніці.
Структура незнакового повідомлення.
Незнакова інформація не має конвенціонального характеру. Її структура відповідає тій, що вказана вище, тобто:
M = Oi,
Прикладом може служити генетична інформація, що передається певними видами клітин.
Структура знакового (вербального) повідомлення з позиції логіки.
Знакова інформація завжди є конвенціональною, тобто такою, що передбачає угоду між
Loading...

 
 

Цікаве