|
|||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Архітектура нейромережУ процесі розроблення нейромереж автори наділяють штучні нейрони різноманітними властивостями з тим, щоб комп'ютерні нейромережі адекватно відображали можливості біологічних нейромереж стосовно розв'язання певного типу проблем, що зумовило появу великого різноманіття підходів до алгоритмів нейромереж, зокрема штучні нейрони можуть бути з різними передавальними функціями, з різними функціями стану, двійковими, цілочисельними, дійсними та іншими числовими значеннями входів і ваг. Тому в термінах нейронних мереж можна описувати алгоритми розв'язання як добре формалізованих задач, наприклад задач математичної фізики, так і задач розпізнавання, що погано формалізуються, класифікації, узагальнення і асоціативного запам'ятовування. Мережі можуть бути такими, що конструюються або що навчаються. У мережі, що конструюється, кількість і тип нейронів, граф міжнейронних зв'язків, ваги входів нейронів визначаються за створення мережі, виходячи із задачі, що розв'язується. Наприклад, за конструювання мережі Хопфілда, що функціонує як асоціативна пам'ять, кожна вхідна послідовність із заздалегідь визначеного певного ряду бере участь у визначенні ваги входів нейронів мережі. Після етапу конструювання функціонування мережі полягає в наступному. За подачі на входи часткової або помилкової вхідної послідовності мережа через якийсь час переходить в один зі стійких станів, передбачених за її конструювання. При цьому на входах мережі з'являється послідовність, що визнається мережею як найближча до спочатку поданої. Кількість вхідних послідовностей — М, що запам'ятовуються, пов'язана з кількістю нейронів у мережі співвідношенням: M<N/41ogN, де N — кількість нейронів. У мережах, що навчаються, графи міжнейронних зв'язків і ваги входів змінюються за виконання алгоритму навчання. За алго- ритмом навчання мережі поділяться на ті, що спостерігаються, ті що не спостерігаються і змішані (комбіновані). Перші у разі навчання порівнюють заздалегідь відоме значення виходу із фактичним вихідним значенням. Якщо відмінність між виходом мережі і відомим значенням суттєва, то виконується корегування ваг мережі. Такий алгоритм називається зворотним розповсюдженням {Back Propagation) помилки в зворотному напрямку по мережі. Другі навчаються, не знаючи заздалегідь правильних вихідних значень, але групуючи «близькі» вхідні вектори так, щоб вони формували той самий вихід мережі. Навчання, що не спостерігається, використовується, зокрема, для розв'язання задач класте-ризації. За змішаного алгоритму навчання частина ваг визначається методом навчання, що спостерігається, а решта — за навчання, що не спостерігається. На даний час використовується кілька типів архітектур ней-ромереж. Найчастіше в дейтамайнінгу використовується багатошаровий персептрон, як об'єднання простих нейронів у багатошарову штучну нейромережу. Всередині кожного ввідні вершини з'єднуються з вивідними вершинами через один або більше невидимих шарів (рівнів). Ввідні вершини графа нейромережі утворюють нейрони вхідного рівня, які за аналогією з біологічною нейромережею назвемо рецепторними нейронами (або просто — рецепторами), а вихідні вершини утворюють вершини вихідного рівня — ефекторні нейрони (ефектори). Найбільшу популярність отримали трьохшарові персептрони, що включають вхідний рівень, кількість нейронів якого дорівнює кількості параметрів, що вводяться в нейромережу (наприклад, за прогнозування це число спостережень у певному ряді даних), вихідний рівень, кількість нейронів якого дорівнює кількості показників на виході (якщо прогнозуємо скалярну величину, то це одиниця) та середній (внутрішній) рівень (приховані, невидимі нейрони). Кількість прихованих нейронів може бути довільною, проте є обґрунтовані рекомендації щодо вибору даного числа: кількість нейронів внутрішнього рівня має дорівнювати півсумі кількостей вхідних і вихідних нейронів. Кожний внутрішній нейрон має бути зв'язаним з виходами всіх вхідних нейронів, а кожний вихідний нейрон — з виходами всіх нейронів внутрішнього шару. У практиці дейтамайнінгу використовуються й інші типи ней-ромереж, зокрема, ймовірнісні нейромережі PPN (Probabilistic Neural Network), докладні описи яких можна знайти у спеціальній літературі. Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.003 сек.) |