|
|||||||
|
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Корреляционной называется зависимость между переменными, когда определенному значению одной величины соответствует несколько значений другой величины
У
Чтобы установить характер связи между величинами, находят величину коэффициента корреляции по формуле:
` r = å(Xi - `X)(Yi - `Y) / Ö å(Xi - `X)2å (Yi -`Y)2
Информация –мера неопределенности, которая устраняется после получения сообщения. Информация – это совокупность сведений, сообщений о явлениях, процессах, предметах, привносящих новые знания об этих явлениях. Мерой неопределенности событий является энтропия. Энтропия является мерой неопределенности событий. Если система может находиться только в одном состоянии, то энтропия имеет минимальное значение равное нулю. Энтропия системы принимает максимальное значение в случае, если все состояния системы равновероятны. Информация, содержащаяся в сообщении, численно равна энтропии, исчезающей после получения сообщения. Количество информации, соответствующее наступлению какого-либо одного из N равновероятных событий, рассчитывается по формуле Хартли: Н = log N = - logР. (Так как Р = 1/ N = N -1). Если события неравновозможные, то информационная энтропия рассчитывается по формуле К.Шеннона: Н = - S PilogPi, где Pi – вероятность i -того события. Пропускной способностью С канала связи называется максимальное количество информации, которое можно передать по каналу связи в единицу времени: С = H / t [бит/с ]. Где Н – количество информации, а t – время, за которое оно было передано. Абсолютный порог - это минимальное значение силы стимула вызывающее ощущения. Болевой или максимальный порог - максимальное значение силы стимула, вызывающее ощущение (выше этого уровня появляется чувство боли). Дифференциальный порог - минимальное отличие между силой, действующих стимулов, при котором они воспринимаются как различные. Дифференциальный временной порог – наименьшее время между действием двух раздражителей, при котором последние воспринимаются как раздельные. Дифференциальный пространственный порог - наименьшее расстояние между раздражителями, при котором они воспринимаются как раздельные. Закон Вебера: отношение между приростом раздражителя, едва заметно отличающимся от его исходного значения и исходным значением раздражителя есть величина постоянная: D S / S = const Закон Вебера - Фехнера E = k ln I / I o, Закон Стивенса: I = k (S - So)n, в котором, I - интенсивность ощущения, Sо - пороговая и S - действующая сила раздражения, k - константа. Показатель степени n в этой функции для различных сенсорных систем и различных видов раздражений может отличаться от единицы как в большую, так и в меньшую сторону.
Поиск по сайту: |
||||||
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.55 сек.) |