|
|||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Корреляционной называется зависимость между переменными, когда определенному значению одной величины соответствует несколько значений другой величиныЧтобы установить наличие связи между величинами строят корреляционное поле.
Чтобы установить характер связи между величинами, находят величину коэффициента корреляции по формуле: ` r = å(Xi - `X)(Yi - `Y) / Ö å(Xi - `X)2å (Yi -`Y)2 х При этом, если r> 0, мы имеем положительную связь. Если r< 0, мы имеем отрицательную связь. При линейной зависимости, если r = 1, то связь функциональная. 0,7£ r <1 – связь сильная. 0,3 £ r < 0,7 – связь средняя. 0 < r < 0,3 – связь слабая. Если r = 0, то связи нет. Информация –мера неопределенности, которая устраняется после получения сообщения. Информация – это совокупность сведений, сообщений о явлениях, процессах, предметах, привносящих новые знания об этих явлениях. Мерой неопределенности событий является энтропия. Энтропия является мерой неопределенности событий. Если система может находиться только в одном состоянии, то энтропия имеет минимальное значение равное нулю. Энтропия системы принимает максимальное значение в случае, если все состояния системы равновероятны. Информация, содержащаяся в сообщении, численно равна энтропии, исчезающей после получения сообщения. Количество информации, соответствующее наступлению какого-либо одного из N равновероятных событий, рассчитывается по формуле Хартли: Н = log N = - logР. (Так как Р = 1/ N = N -1). Если события неравновозможные, то информационная энтропия рассчитывается по формуле К.Шеннона: Н = - S PilogPi, где Pi – вероятность i -того события. Пропускной способностью С канала связи называется максимальное количество информации, которое можно передать по каналу связи в единицу времени: С = H / t [бит/с ]. Где Н – количество информации, а t – время, за которое оно было передано. Абсолютный порог - это минимальное значение силы стимула вызывающее ощущения. Болевой или максимальный порог - максимальное значение силы стимула, вызывающее ощущение (выше этого уровня появляется чувство боли). Дифференциальный порог - минимальное отличие между силой, действующих стимулов, при котором они воспринимаются как различные. Дифференциальный временной порог – наименьшее время между действием двух раздражителей, при котором последние воспринимаются как раздельные. Дифференциальный пространственный порог - наименьшее расстояние между раздражителями, при котором они воспринимаются как раздельные. Закон Вебера: отношение между приростом раздражителя, едва заметно отличающимся от его исходного значения и исходным значением раздражителя есть величина постоянная: D S / S = const Закон Вебера - Фехнера E = k ln I / I o, Закон Стивенса: I = k (S - So)n, в котором, I - интенсивность ощущения, Sо - пороговая и S - действующая сила раздражения, k - константа. Показатель степени n в этой функции для различных сенсорных систем и различных видов раздражений может отличаться от единицы как в большую, так и в меньшую сторону.
Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.005 сек.) |