WWW.REFERATCENTRAL.ORG.UA - Я ТУТ НАВЧАЮСЬ

... відкритий, безкоштовний архів рефератів, курсових, дипломних робіт

ГоловнаІнформатика, Компютерні науки → Архітектура нейронної мережі - Реферат

Архітектура нейронної мережі - Реферат

мережі можна використати функцію TRAIN, та це недоцільно, оскільки ця функція на відміну від ADAPT проводить навчання зразу на цілому проміжку, а потім аналізує результат. Функція ADAPT проводить налаштування вагових коефіцієнтів та коефіцієнта зсуву і перевіряє похибку при кожному надходженні вхідних даних, таким чином навчання мережі проходить швидше і за меншу кількість ітераційних циклів (епох).
Для навчання мережі потрібно налаштувати параметри навчання. Спочатку задамо вектор вхідних умов затримки .
Далі потрібно задати кількість циклів навчання , тобто . Після чого можна проводити навчання за допомогою оператора [net,Y,E]=adapt(net,P,T,pi) [4] тут вхідними аргументами є: - назва даної мережі, - вектор вхідних даних, - вектор цільових даних і - вектор вхідних умов затримки, вихідними аргументами є: - назва даної мережі, - вектор вихідних даних при останній ітерації, - абсолютна похибка, тобто значення різниці між вихідним вектором мережі і цільовим вектором.
Для зображення послідовності навчання мережі використаємо навчання в циклі до 60-ї ітерації з кроком 10, тобто , таким чином на графіку буде зображено кожен 10 крок навчання мережі. При навчанні на 60-й ітерації значення вагових коефіцієнтів буде рівне та зміщення .
На графіку В.6 (див.додаток В) зображена абсолютна похибка на останньому кроці ітерації. Як бачимо із графіка, абсолютна похибка прямує до нуля. В кінці останньої ітерації вихідний вектор даних приблизно рівний вектору цільових значень, отже процес є збіжний. В іншому випадку, тобто при незбіжності процесу чи при недостатньому прямуванні абсолютної похибки до нуля потрібно збільшити кількість ітераційних циклів навчання мережі.
Текст програми навчання мережі приведений в m-файлі (див. додаток А).
3.4 Моделювання та тестування нейронної мережі
Моделювання мережі полягає в створення придатної для практичного використання моделі, в якої збережені архітектура мережі і знайдені в результаті навчання значення вагових коефіцієнтів і зміщень всіх нейронів.
В даній курсовій роботі моделювання мережі виконується за допомогою команди [8, 9], де - назва даної мережі, - вектор вхідних даних мережі, - вектор вихідних даних мережі.
Функція SIM (симулювання) виконує процес моделювання і обчислює реакцію мережі на вхідний масив Р. Для тестування та моделювання мережі використовується той самий масив даних, що й при навчанні (див. додаток А).
Для аналізу отриманих даних, тобто для перевірки правильності роботи мережі знайдемо відносну похибку, яка обчислюється так:
(3.2)
де - відносна похибка тестування, - вихідний вектор мережі, - цільовий вектор.
Для оцінювання точності роботи мережі проведемо регресійний аналіз за допомогою функції [2,8], яка порівнює вихідний масив мережі з цільовим. Вихідним аргументом цієї функції є коефіцієнт кореляції, який в нашому випадку рівний . Це означає, що вихід мережі при тестуванні майже повністю співпадає з цільовим або відрізняється на дуже малі значення, що й видно з рисунку В.5 (див. додаток В), де розкид вихідних значень мережі відносно лінії регресії дуже малий..
Визначимо за допомогою функції MAE(Еv) середнє значення відносних похибок тестування. Результат її виконання рівний 2.2401%, через початкові значення перехідної характеристики (див. додатки А та Б). Проте, оскільки нам треба визначати значення перехідної характеристики в наступні моменти часу, то це значення являється цілком задовільним.
3.5 Приклад застосування створеної нейронної мережі
Нехай потрібно знайти значення нашої перехідної характеристики в момент часу 9с, коли відомі її три попередні значення. Так як часовий інтервал ми розбили на значення з кроком 0.1, то в момент часу 9 секунд ми будемо мати значення елемента вхідного масиву даних, яке і потрібно знайти. Дано значення , та , тому що мережа має на вході лінію затримки, яка складається з двох блоків. При подачі першого елемента на виході мережі ми отримаємо саме значення зсуву нейрона, так як на вході самої мережі немає ніякого сигналу. При подачі другого елемента, перший появиться на одному з блоків, проте інший буде пустий, що і буде заважати правильному вирішенню нашої задачі. Коли надходить третій елемент, всі вхідні блоки стають заповненими і мережа працює повноцінно, а отже, правильно знаходить значення в наступний момент часу.
За допомогою функції знаходимо вихід мережі, який має значення 2.0040. Таке значення отримане завдяки похибці, яка має місце в мережі, так як значення по перехідній характеристиці рівне 2.0057. Фрагмент програми прикладу застосування створеної нейронної мережі і результати її виконання наведені в додатках А та Б.
ВИСНОВКИ
В результаті виконання даної курсової роботи розробив нейронну мережу, яка здійснює передбачення значення часової функції, яка отримується як перехідна характеристика ланки другого порядку за її попередніми значеннями.
В даній курсовій роботі для передбачення значення часової функції за її попередніми значеннями використовуєтьсяадаптуюча лінійна нейронна мережа ADALINE, яка найкраще підходить для розв'язування поставленої задачі. Процес створення мережі відбувався за такими етапами: підготовка вхідних даних, створення мережі, навчання мережі, моделювання та тестування мережі. Так як на практиці ці етапи досить важко реалізуються і потребують ґрунтовних знань не тільки принципів побудови і навчання нейронних мереж, але і навиків в області програмування, щоб полегшити роботу було розроблено спеціальний програмний пакет в середовищі MATLAB. Застосувавши вбудовані функції та процедури цього пакету, було створену нейронну мережу для реалізації поставленої задачі.
Для оцінювання точності роботи мережі здійснив проведення регресійного аналізу за допомогою функції , яка порівнює вихідний масив мережі з цільовим масивом даних, причому вихідним аргументом цієї функції є коефіцієнт кореляції, який в нашому випадку рівний . Це означає, що вихід мережі при тестуванні майже повністю співпадає з цільовим або відрізняється на дуже малі значення, що й видно з рисунка В.5 (див. додаток Б), де розкид вихідних значень мережі відносно лінії регресії є дуже малий. Для перевірки правильності роботи мережі визначив значення відносної похибки, як показують результати обчислень, отримане значення відносної похибки є цілком прийнятним, що свідчить про правильність роботи створеної нейронної мережі.
ПЕРЕЛІК ПОСИЛАНЬ НА ДЖЕРЕЛА
1. СТП 02070855-03-99. Стандарт підприємства. Курсовий і дипломний проект: Вимоги до змісту та оформлення. - Івано-Франківськ, ІФНТУНГ, 1999.
2. Круглов В. В., Борисов В. В. Искусственные нейронные сети. Теорія и практика. - М.: Горячая линия - Телеком, 2001. - 382 с.
3. Медведев В.С., Потемкин В.Г. Нейронные сети. MATLAB 6 / Под общ. Ред. К.т.н. В.Г.Потемкина. - М.: ДИАЛОГ-МИФИ, 2002. - 486 с. - (Пакеты прикладных программ; кн. 4).
4. Notebook "Нейронные сети" - заготовка для книги [3], мережа кафедри КТіСУ: h:disciplinesneurokurs_robM-book_neural_net.doc.
5. Дьяконов В.П. MATLAB 6/6.1/6.5 + Simulink 4/5 в математике и моделировании. Полное руководство пользователя. М.: СОЛОН-Пресс. - 2003. - 576 с.
6. Иванников В., Ланнэ А. MATLAB для DSP. Нейронные сети: графический інтерфейс пользователя // CHIP NEWS. - 2001. - # 8.
7. Neural Network Toolbox. User's Guide, v.4, мережа кафедри КТіСУ: h:disciplinesneuroMATLABnnet.pdf
8. Перелік більшості функцій MATLAB NNT, мережа кафедри КТіСУ: h:disciplinesneuroMATLABfunction_list.doc.
9. Скановане зображення книги [3], сторінки 102-146 (4. Персептроны, 5. Линейные сети, 6. Радиальные базисне сети), мережа кафедри КТіСУ: h:disciplinesneurokurs_robMedvedev_Potemkin_102-146.
10. Приклади реалізації трьох нейронних мереж, мережа кафедри КТіСУ: h:disciplinesneuroMATLABNeural Networks.doc.
Loading...

 
 

Цікаве