WWW.REFERATCENTRAL.ORG.UA - Я ТУТ НАВЧАЮСЬ

... відкритий, безкоштовний архів рефератів, курсових, дипломних робіт

ГоловнаІнформатика, Компютерні науки → Теорія інформації та її концепції - Реферат

Теорія інформації та її концепції - Реферат

першій - всі літери записані в ланцюжки на основі даних генератора випадкових чисел (з врахуванням частот появи літер і впливу на них контексту як це має місце в реальних текстах); в ілюстраціях піксели (з чорним чи білим зображенням) записані на площині в порядку, заданому на основі того самого генератора випадкових чисел. При цьому вказана сторінка нічого спеціально не шифрує, тобто ключа до її розшифрування в принципі немає. На другій сторінці газети - осмислені тексти; ілюстрації є фотографіями об'єктів реального світу. Коли порівняти кількість інформації на цих двох сторінках заШеннонівською теорією інформації, то виявиться, що вони є практично однаковими, хоча кожна людина з власного досвіду знає, що це не так.
Важливими вадами цієї теорії є те, що вона: а) стосується вимірювання кількості інформації лише в технічних пристроях - каналах зв'язку та носіях інформації (наприклад, пам'яті комп'ютерів) тощо ; б) не має методів, які давали б можливість виміряти кількість інформації стосовно тих подій, які вже відбулися, оскільки їх імовірність завжди дорівнює одиниці (в цьому випадку I = 0); в) не має методів, які давали б змогу виміряти кількість семантичної інформації не тільки в словах, реченнях, текстах, а й загалом у будь-яких знаках, що позначають образи (наприклад, географічних картах).
4.2. Алгоритмічна концепція теорії інформації
Кількість інформації за теорією інформації, що базується на алгоритмах перетворення (далі - алгоритмічна ТІ), вимірюється як довжина програми, що дає змогу перетворити об'єкт A в об'єкт B, тобто
I = L[G(A,B)], (3)
де L - функція отримання довжини програми (в байтах чи бітах), а G - програма перетворення.
У поданому вище прикладі алгоритмічна ТІ дасть цілком інший результат. Згідно з її методикою кількість інформації в літері Ф стосовно Р буде рівною, наприклад, кількості байтів програми, яка перетворює літеру Ф в Р. Тут, правда, можливі різні результати залежно від того, що вибрати за елемент перетворення: коли цілі літери, то кількість інформації буде найменшою; коли стандартизовані елементи літер - середньою; коли піксели - максимальною. Виміряти ж кількість інформації в будь-якій літері, взятій окремо, взагалі неможливо, хіба що порівнювати її з пробілом. Розглядати ж можливість перетворення літери на себе саму немає сенсу, оскільки тоді довжина програми перетворення рівна нулю, а, отже, й кількість інформації в ній виявиться також рівною нулю.
Спосіб вимірювання кількості інформації в значенні слова мама за цією теорією - невизначений (на нашу думку, неможливий).
Вадами цієї теорії є те, що вона: а) в методі вимірювання як параметр використовує довжину алгоритму, який залежить від кількості "будівельних елементів", що дають змогу перетворити один об'єкт на інший (чим дрібніші "будівельні елементи", тим довшою виявляється програма перетворення для однієї й тієї ж пари об'єктів); б) не має методу, який дає змогу виміряти кількість інформації в одному об'єкті, оскільки для вимірювання їх завжди потрібно як мінімум два; в) не враховує, що одна й та ж програма може бути призначена для перетворення не одного, а цілого класу об'єктів; при цьому така програма матиме сталу довжину, хоча для різних об'єктів кількість виконаних команд може бути різною.
Образна концепція теорії інформації як різновид алгоритмічної концепції теорії інформації.
У будь-якому повідомленні M кількість інформації в образі O (Io) будемо вимірювати за напівемпіричною формулою, яка узгоджується з положеннями інформаційних підходів А. Колмогорова:
Io = q-1 L[G(O1, O2)], (3-7) де q - ймовірність правильного розпізнавання образу O1 кібернетичною системою; L - функція отримання довжини розгорнутої програми; G - програма розпізнавання образу, біти; O2 - еталонний образ кібернетичної системи.
Тут імовірність q визначається апостеріорно, за допомогою багаторазових експериментів.
Для простішого оперування у формулі (3-7) величину L[G(O1,O2)] позначимо як Q, тобто приймемо, що L[G(O1,O2)] = Q. Тоді формулу (3-7) можна скорочено записати як
Io = q-1 Q. (3-8)
Саме в такому вигляді й користуватимемося цією формулою далі.
Інтерпретація інформації як розпізнаного образу.
Нерозпізнані образи не є інформацією. Такі образи - це лише відображення.
Приклад. "Далі в книзі він [Тарзан] знайшов кілька маленьких мавп… Спочатку Тарзан намагався зняти пальцями маленькі фігури зі сторінок, але швидко зрозумів, що вони не справжні… Пароплави, потяги, корови і коні не мали для нього ніякого змісту, вони ковзали повз його увагу і не хвилювали його… Але що особливо зацікавило Тарзана і навіть збивало його з пантелику, це численні чорні позначки внизу і між розфарбованими картинками, - щось наче комашки, подумалося йому, - бо в багатьох з них були ноги, але у жодної з них не було ні рук, ні очей. Це було його перше знайомство з літерами алфавіту" .
4.3. Семантична концепція теорії інформації
Вимірювання кількості інформації в семантичній теорії інформації, що базується на фігурах математичної логіки (логічна ТІ) , можливе лише для тверджень за формулою
I = log2 F(S), (4) де F - функція отримання кількості інформації, що залежить від кількості можливих станів у складових (змінних і предикатах) твердження; S - саме твердження.
Знову повернемося до нашого прикладу. В цій теорії виміряти кількість інформації в літері Р або в значенні окремого слова мама взагалі неможливо, оскільки літера чи слово подані окремо, поза складом тверджень.
Вадами цієї теорії є те, що вона: а) не дає можливості виміряти кількість інформації як у словах (семантичну інформацію ), так і в тексті (тобто інформацію, що є в тексті за межами тверджень); б) не дає можливості виміряти кількість невербальної інформації, що свідчить про її незаперечну обмеженість.
Близькою за своєю суттю до семантичної теорії інформації є концепція М. Мазура .
5. Кодування інформації
Мета процесу кодування інформації: за одиницю часу передати більше інформації.
Конвенціональність кодування (одну й ту ж інформацію можна кодувати різними способами).
Імовірність появи різних кодів у повідомленні.
Кодування в суспільстві:
- знакової інформації (природна мова людини; штучні мови);
- аудіальної інформації (звуки музики - нотна грамота);
- графічної інформації - площинної і просторової (картини, скульптура - закони перспективи, кольорові гами, масштаб);
- графічної динамічної інформації (кіно, телебачення, відео - частота кадрів у кіно, піксельна передача методом горизонтального й вертикального розгортання).
2.6. Передача інформації
Канал зв'язку передає інформацію в просторі (не в часі).
Кожен канал передачі інформації характеризується певною пропускною здатністю, тобто кількістю інформації, яку він може передати за одиницю інформації при умові, що приймач
Loading...

 
 

Цікаве