|
|||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Понятие логически прозрачных нейронных системСеть называется логически прозрачной, если на основе ее стр-ры можно построить вербольное описание алгоритма получения ответа. Сеть называется логически прозрачной, если на основе ее стр-ры можно построить вербольное описание алгоритма получения ответа. Действительно, можно описать функционирование сети как пересылку, суммирование и преобразование большого числа сигналов, но понятийная интерпретация крайне затруднена. Этот факт называется логической непрозрачностью нейронной сети. Критерии логической прозрачности нейросетевых архитектур не должны обязательно совпадать с критериями наиболее простой технической или программной реализуемости сети - это все-же разные задачи. Перечислим эти критерии: 1. чем меньше нейронов в каждом из имеющихся путей прохождения сигналов в сети от входа к выходу, тем сеть логически прозрачнее 2. Уменьшение числа входных сигналов сети (признаковое "шумовое поле) 3. Контрастирование НС – сведение ее связей до минимума для данных. 4. Уменьшение числа приходящих на нейрон сигналов. Минимизируя число приходящих на нейрон сигналов, мы облегчаем пользователю задачу содержательного осмысления признака, генерируемого нейроном, и, может быть, помогаем в именовании этого признака. 5. Уменьшение общего числа синапсов в сети. 6. Синапс, по которому передается сигнал, логически непрозрачнее неоднородного входа нейрона. 7. приведение значений настраиваемых параметров сети к конечному набору выделенных значений. Для получения ЛП НС используются 2 основных этапа: 1) Контрастирование НС – сведение ее связей до минимума для данных 41. Схема работы интеллектуального компонента прогнозирования временных рядов показателей. 1) Из обучающий выборке берется текущий пример, его входные параметры 2) НС производит заданное количество тактов функционирования. 3) Изменяются сигналы, выданные теми нейронами, которые считаются выходными 4) Производится интерпретация выходных сигналов и выч-ся оценка, хар-ая различия м/у выданным сетью ответом и требуемым, имеющимся в примере. 5) Проверяется значение оценки, если она меньше заданной точности, то обучение завершено. Иначе, на основании оценки вычисляются поправочные коэфф-ты для каждого синаптич. веса матрицы связей. После чего производится корректировка синаптических весов. 5) Осуществляется период к следующему примеру задачника и вышеперечисленные операции повторяются. Проход по всем примерам обучающей выборки с первого по последний считается одним циклом обучения. При прохождении цикла кжд пример имеет свою оценку. Кроме того, вычисляется суммарная оценка мн-ва всех примеров обучающей выборки. Если после прохождения нескольких циклов ошибка < заданной точности, то обучение считается законченным, в противном случае циклы повторяются. Кол-во циклов обучения, а также время, требующееся на обучение зависит от многих факторов – величины обучающей выборки, кол-ва вход. пар-ров, вида задачи, типа и пар-ров НС, от случ. значений весов синаптич. карты. Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.003 сек.) |