WWW.REFERATCENTRAL.ORG.UA - Я ТУТ НАВЧАЮСЬ

... відкритий, безкоштовний архів рефератів, курсових, дипломних робіт

ГоловнаІнформатика, Компютерні науки → Вимір кількості та якості інформації - Реферат

Вимір кількості та якості інформації - Реферат


Реферат
на тему:
Вимір кількості та якості інформації
Найважливішим етапом у розвитку теорії інформації стала кількісна оцінка інформації. Зрозуміло, що ця оцінка не має бути пов'язана із змістовним боком інформації. Тільки в цьому випадку з'явиться можливість оцінки інформаційних потоків у таких різних за своєю природою об'єктів, таких як система зв'язку, обчислювальні машини, процеси керування, нервова система живого організму.
Лише беручи за основу новизну відомостей, можна дати кількісну оцінку інформації, оскільки новизна відомостей є наслідком невизначеності відомостей про об'єкт, процес, явище, а невизначеність піддається виміру. Наприклад, повідомлення про ім'я перемігшого на виборах у президенти, якщо було усього два кандидати, несе меншу кількість інформації порівняно з випадком, якби вибори відбувалися в конкурентній боротьбі п'яти кандидатів.
Базуючись на ідеї, що інформація усуває деяку невизначеність, тобто незнання, опис будь-якої події або об'єкта формально можна розглядати як вказівку на те, у якому з можливих станів знаходиться об'єкт, що описується. Тоді протікання подій у часі є не що інше, як зміна станів, вибраних із деякою ймовірністю з числа усіх можливих. Чим більше невизначеність вибору, тим більше інформації, оскільки результат вибору має великий ступінь несподіванки. Ось чому в теорії інформації кількість інформації є мірою зняття невизначеності однієї випадкової величини в результаті спостереження за іншою. Якщо величини незалежні, то кількість інформації дорівнює нулеві.
Найпростішим випадком є вибір альтернативи з двох подій, тому за одиницю інформації доцільно взяти кількість інформації, укладену у виборі одного з двох рівноймовірних подій. Ця одиниця називається "двійковою одиницею" або бітом (binary digit, binary unit) = bit. Подія є =1, події немає = 0.
8 бітів = 1 байт; 8192 бітів = 1024 байт = 1 Кбайт
Приблизно: 1000 Кбайт = 1 Мбайт;
1000 Мбайт = 1 Гбайт;
1000 Гбайт = 1 Нбайт.
Байтом знаків (сигналів) можна закодувати букви російського і латинського алфавітів, службові символи та ін. Байтовий алфавіт широко використовується в інформатиці.
Звертає на себе увагу чудова єдність, пов'язана з бінарною природою елементів, бінарним представленням інформації й бінарною оцінкою його кількості. Справа в тому, що запам'ятовування інформації в обчислювальних машинах проводиться на елементах бінарного типу (ферритові кільця з прямокутною петлею гістерезиса, тригери, напівпровідникові вентилі), а інформація (букви, числа) у комп'ютері подаються у двійковій системічислення (0 і 1, тому і ємність пам'яті комп'ютера вимірюється кількістю бітів. Після того, як аналогову інформацію (промову, музику, кінофільми) стало можливим подати у вигляді 0 і 1, утворився єдиний процес обробки, запам'ятовування і передачі інформації будь-якої природи, виконуваний за допомогою фізичних елементів бінарного типу.
Вимір тільки кількості інформації не відповідає нагальним потребам сучасного суспільства - необхідна міра цінності інформації. Доречно пригадати зауваження академіка П.Н.Федосєєва: "В останні роки все гостріше підводиться проблема так званого інформаційного вибуху. Потреба розвитку науки, завдання оптимізації виробництва і переробки інформації потребують розв'язання проблеми її змістовності, цінності. Як знайти критерій для виміру властивостей інформації? Це "завдання сторіччя" стоїть перед наукою в цілому... ".
Проблема визначення цінності інформації винятково актуальна в даний час. Якщо в 50-ті роки це наукове завдання могло здатися дещо надуманим, то зараз, коли вже важко навіть за допомогою комп'ютера обробляти інформаційний потік, розроблені методи визначення цінності інформації зіграли б суттєву роль в одержані людиною необхідної інформації.
Однією з перших робіт з проблеми цінності інформації стала стаття академіка А.А.Харкевича, у якій пропонувалося прийняти за міру цінності інформації кількість інформації, необхідну для досягнення поставленої мети, тобто розраховувати збільшення можливості досягнення мети. Так, якщо до одержання інформації можливість досягнення мети дорівнювалася Р0, а після одержання - Р1, то цінність інформації визначається як логарифм відношення Р1/Р0. Цінність інформації при цьому вимірюється в бітах.
Інформація називається корисною, якщо вона зменшує невизначеність вирішального алгоритму. Академік М.М.Бонгард відзначає, що не має сенсу говорити про корисну інформацію, що утримується в сигналі, якщо не показане завдання, що вирішується, початковий стан вирішального алгоритму і властивості декодуючого алгоритму.
Таким чином, різноманітні підходи до розв'язання проблеми цінності інформації мають принципові загальні риси: вони пропонують вимірювати цінність інформації через її кількість, пов'язують цінність інформації з поставленим завданням.
Поки можна зробити висновок, що завдання визначення цінності інформації за достатнього ступеня формалізації, що потрібний при комп'ютеризованій оцінці, ще не вирішено, проте це не означає неможливості його вирішення в майбутньому.
Loading...

 
 

Цікаве