WWW.REFERATCENTRAL.ORG.UA - Я ТУТ НАВЧАЮСЬ

... відкритий, безкоштовний архів рефератів, курсових, дипломних робіт

ГоловнаІнформатика, Компютерні науки → Теорія інформації та її концепції - Реферат

Теорія інформації та її концепції - Реферат

змінюватися (наприклад, крапка - на тире). Тому для прокладання було обрано стовпи, на які підвішували кабель.
На кабель, як виявилося, впливає магнітне поле Землі, яке викликає в ньомупевні "паразитні" струми. Такі струми було пізніше названо шумами.
Пізніше телеграф удосконалили, а саме - його зробили двохполюсним: струму нема, стум іде в одному напрямі або в протилежному напрямі.
У 1855 р. особливості передачі сигналів розрахував Вільям Томсон (лорд Кельвін).
У 1874 р. Томас Едісон використав не тільки два різні напрями струму, а й додав до кожного напряму два різні значення. Але це вело до того, що ці значення стало важче розрізняти.
Нова хвиля досліджень розпочалася після винаходу в 1875 р. Олександром Грехемом Беллом телефону.
Великий вклад у проблему передачі сигналів зробив відомий математик Жозеф Фур'є, який запропонував математичний апарат для дослідження накладання сигналів один на одного (враховувалася амплітуда коливань, їх частота). Крім нього, проблемами передачі сигналів каналами електричного зв'язку займалися також відомі математики Анрі Пуанкаре, а також американський математик Гаррі Найквіст (у 1924 р. опублікував одну з базових статей, де показав, як залежить швидкість передачі від кількості значень у сигналі). Найквіст також встановив, як правильно визначити максимально можливу швидкість передачі сигналів по каналу за 1 с.; він вказав, як правильно одночасно передавати по одному каналу і телеграфні повідомлення, і телефонні розмови; вказав, як залежить швидкість передачі від ширини діапазону використовуваних частот; вказав на наявну надлишкову складову в сигналі.
У 1928 р. американський дослідник Хартлі опублікував роботу "Передача інформації". Він першим показав, що кількість інформації в повідомленні H дорівнює
H = n log2 s,
де n - кількість вибраних символів, а s - кількість різних символів у наборі, з яких роблять вибір. Ця формула справедлива тоді, якщо вибір символів рівноімовірний.
Під час ІІ світової війни роботи в ділянці передачі інформації було перервано. Але з'явилася нова група задач: як по електричному сигналу від радіолокатора визначити, в якій точці через певний час буде літак, що зараз має якісь певні координати? Цю задачу вирішили російський математик А. Колмогоров і Н. Вінер (автор книги "Кібернетика", 1948 р.).
Кібернетичний період.
Етап класичної імовірнісної теорії інформації К. Шеннона. У час війни проблемою передачі інформації зайнявся ще один відомий математик - Клод Шеннон. Він займався дослідженням того, якого типу сигнали потрібно посилати, щоби краще передати повідомлення певного типу по заданому каналу з шумами. Таким чином, було поставлено проблему ефективного кодування й надійного отримання повідомлення. Так виникла класична (імовірнісна) теорія інформації. У повному викладі основні положення цієї теорії було опубліковано в 1948 р. у двох статтях.
Основні постулати теорії Шеннона такі. Повідомлення (точніше, їх коди) надходять з джерела інформації через канал зв'язку до приймача інформації. Ці повідомлення змінюють систему знань (тезаурус) приймача, зменшують рівень його розмаїття, невизначеності, який вимірюється ентропією. Ентропія системи повідомлень визначається їх вірогідностями як середнє значення логарифмів величин, які є зворотними до цих вірогідностей. Виміряти середню кількість інформації можна по зменшенню ентропії сприймача у результаті зміни його уявлень. До речі, звідси й приходить одиниця виміру інформації. Вона визначається кількістю інформації про те, яка з двох однаково вірогідних подій реалізувалася і називається "біт" (початок і кінець англійського словосполучення binary digit (бінарний розряд). Теорія інформації знайшла розвиток у кібернетиці. Саме за допомогою теорії інформації вдалося науково довести загальновідомий принцип кібернетики про те, що розмаїття системи управління має бути не нижче розмаїття об'єкта, який керується цією системою.
Етап виникнення алгоритмічної та семантичної концепцій теорії інформації (А. Колмогорова, Р. Карнапа й І. Бар-Хіллела). Як виявилося, теорія інформації К. Шеннона фактично стосувалася лише передачі сигналів у технічних каналах зв'язку, а тому до другого значення слова інформація ("знання") вона мала доволі опосередковане відношення. Тому науковці вели дослідження для подолання вказаного недоліку. Результатом цих досліджень стало виникнення ще двох концепцій теорії інформації.
Перша з цих двох концепцій була опублікована в 1953 р. дослідниками Р. Карнапом та І. Бар-Хіллелом. Ця концепція була названа семантичною, оскільки передбачала визначення кількості інформації у твердженнях - конструкціях математичної логіки.
Друга концепція була опублікована в 1965 р. відомим російським математиком А. Колмогоровим. Вона отримала назву алгоритмічної, оскільки передбачала визначення кількості інформації на основі програми (і, відповідно, алгоритму), яка перетворює один об'єкт в інший.
Етап застосування теорії інформації в різних галузях науки й мистецтва. У період 50-70-х років почалося широке застосування класичної теорії інформації в найрізноманітніших галузях науки й техніки.
Якщо застосування класичної теорії інформації в техніці давало позитивні результати, то застосування її в науці (наприклад, лінгвістиці, психології, мистецтві тощо), як правило, давало негативні результати, оскільки не враховувалося основне - значення знаків (наприклад, слів).
Результатом стало те, що сам автор імовірнісної теорії інформації К. Шеннон назвав роботи із застосування створеної ним концепції теорії інформації до мови, психіки людини, творів мистецтва - необґрунтованим, а дослідників, які намагалися це зробити - "бандвагоном".
Етап застосування теорії інформації в кібернетиці й промисловості (зв'язку). З 80-х років 20-го ст. починає широко розвиватися комп'ютерна (цифрова) мережа каналів зв'язку. На якісно новий рівень виходять канали телефонного зв'язку (вони також стають цифровими). Все це дає широке поле для застосування класичної теорії інформації К. Шеннона в техніці.
Новітні концепції теорії інформації. Незважаючи на широке застосування класичної теорії інформації, проблема інформації як знань залишається невирішеною. Тому науковці продовжують свої дослідження. У цьому напрямі йде ціла низка досліджень, виконаних на основі алгоритмічної теорії інформації.
2. Методологічні засади теорії інформації
На сучасному етапі теорія інформації містить такі розділи як: аксіоматична база; принципи вимірювання кількості інформації; кодування інформації; передача інформації.
Інформація пов'язана з процесами керування в кібернетичних системах. Найперше вкажемо, що інформація є лише там, де є процеси керування, а, отже, керуючі системи. Там, де керуючих систем нема (наприклад, у неживій природі), інформації не існує. Тому відбиток коліс автомобіля на
Loading...

 
 

Цікаве