|
|||||||||||||||||||||||||||||||||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Метод расчета критерия Колмогорова- Смирнова для оценки нормальности распределенияОсновные особенности нормального распределения заключаются в том, его частотное распределение напоминает колоколообразную кривую. Вершина распределения, которая отражает высокую частоту встречаемости признаков (мода), приходится на средние по величине признаки, а низкие «хвосты», т.е. низкие частоты приходятся на малые и большие по величине признаки. Как уже отмечалось нами, начинать нормирование результатов для какого-либо теста можно только в случае, если распределение полученных по нему данных подчиняется закону нормального распределения. Определить, носит ли экспериментальное распределение именно такой или иной характер можно визуально, построив для этого частотное распределение (кривую или гистограмму). Однако бывают случаи, когда требуется научное доказательство того, что имеющееся распределение действительно является нормальным. Тогда необходимо воспользоваться специальным статистическим методом обработки данных, который называется критерий Колмогорова-Смирнова. Назначение критерия заключается в том, что он определяет, относятся ли сравниваемые вами два распределения к одному и тому же типу. Если мы будем сравнивать экспериментально полученное распределение с нормальным распределением, то с помощью критерия сможем получить ответ о том, нормально ли наше распределение. Если мы захотим сравнить между собой два экспериментальных распределения, то это тоже возможно сделать с помощью данного критерия, но в данном случае мы получим ответ только о том, принадлежат ли эти два распределения к какому-то одному типу (биноминальному или пуассонову и проч.) без определения самого типа распределения. Дело в том, что принцип сравнения распределений в критерии Колмогорова-Смирнова заключается в сравнении перцентильных кривых этих двух распределений, поэтому сам характер распределения здесь не рассматривается. Давайте вспомним, что такое перцентильные кривые. Это – кривые частотного распределения данных, построенные по принципу суммирования накопленной частоты встречаемости всех значений ниже данного. В зависимости от того, сколько дискретных (отдельных) значений было получено по тесту, производится градация значений на оси абсцисс. При этом на оси ординат откладываются перцентили (перцентильные ранги). Для построения кривой предварительно определяется для каждого значения (величины тестового результата) его перцентильный ранг, который получается от сложения процента встречаемости данного результата и суммы процентов встречаемости всех результатов ниже данного. Если необходимо сравнить два распределения, то строятся соответственно две самостоятельные перцентильные кривые (кривые накопления частот). Потом необходимо определить степень расхождения между ними по каждому разряду (х), т.е. подсчитываются разницы между перцентильными значениями применительно к каждому результату. Сравнение двух типов распределения данных путем оценки степени их расхождения в каждом разряде значений (х) Выбирается максимальная величина разниц Dmax в перцентилях – она и становится экспериментальным значением критерия Колмогорова-Смирнова. Формула расчета экспериментального значения критерия Колмогорова-Смирнова выглядит так: Dm,n = sup |Fm (x)-Gn(x)|, где: D – степень различия между распределениями m и n, х – разряды, по которым рассчитываются разницы, Fm– частотное распределение m Gn – частотное распределение n sup – выбор максимальной по модулю величины разницы. Рассмотрим вопрос о том, как надо анализировать полученное в ходе расчетов экспериментальное значение (в данном случае это — максимальная абсолютная разница, выявленная между участками перцентильных кривых). В статистике существует целый ряд критериев для различного рода сравнений данных, но принцип построения их анализа одинаков. Этот принцип заключается в следующем:
Данный принцип следует твердо запомнить потому, что мы будем им пользоваться при изучении всех дальнейших статистических критериев. Рассмотрим его более подробно на примере критерия Колмогорова — Смирнова. Итак, предположим, мы построили перцентильные кривые для двух распределений данных, одно из которых является нормальным (согласно предварительной информации, например, полученной другими исследователями). Чтобы оценить нормальность нашего распределения, его надо сравнить с нормальным. Для этого применительно к каждому разряду высчитываются разницы между перцентильными значениями, и выбирается большая по модулю величина- D max. Предположим в ходе расчетов по формуле, она оказалась равной 0, 673 – это и будет экспериментальное значение критерия Колмогорова-Смирнова Dэксп в данном случае. Далее надо взять критическое значение для данного критерия, чтобы произвести сравнение экспериментального и критического значений в целях построения вывода о различиях распределений. Оно выбирается из специальной таблицы «Критических значений». Такого рода таблицы для различных критериев приводятся в статистических учебниках и справочниках. Обычно в таблице имеется множество строк и два-три столбца. Разберем более подробно, как надо работать с таблицей критических значений, чтобы выбрать из нее нужное нам значение. Ниже приведена таблица критических значений для критерия Колмогорова-Смирнова.
Строки таблиц всегда отражают разные объемы выборки испытуемых. Однако следует внимательно посмотреть, в каких показателях представлен объем выборки: это может быть число испытуемых или количество сравниваемых пар (n), а может быть такая характеристика, как степень свободы выборки (N или k). Степень свободы выборки определяется как число испытуемых, уменьшенное на единицу: N=n-1.(Позднее будет рассказано более подробно о понятии «степень свободы выборки» и правилом расчета этого показателя.) Итак, для выбора нужного критического значения из таблицы надо взять строку, соответствующую степени свободы выборки. Если выборка составляло 21 человек, то степень ее свободы будет равна 20. Следовательно, выбираем строку в самом левом столбце, соответствующую цифре 20. Первые три графы таблицы относятся к ситуации, когда экспериментальное распределение сравнивается с каким-то классическим – теоретически известным (нормальным, пуассоновым и т.п.). Две следующие графы таблицы применяются в том случае, когда сравниваются два экспериментальных распределения, принадлежащие к неустановленному типу распределения. В обеих частях таблицы имеются графы, где написано D0,05 и D0,01. Как видно из формулы расчета критерия Колмогорова-Смирнова буквой D обозначается итоговый показатель, который анализируется в данном критерии. В других критериях эта буква будет иной, но сохранятся два индекса: 0,05 и 0,01. Данные индексы имеют исключительно важное значение для построения вывода о надежности (устойчивости) или ненадежности различий между двумя группами данных! Чтобы понять, что они обозначают, придется перейти к рассмотрению такого понятия, как уровень значимости проверяемых гипотез. Обычно в исследованиях ставится цель оценить существенность и надежность различий между двумя группами данных. Существенность различий показывает сравнение экспериментального значения с критическим значением! А надежность вывода о различиях оценивается по другому показателю – «уровню значимости», т.к. он отражает, какой процент (или доля) данных от общего объема выборки свидетельствует в пользу этого вывода. Понятно, что выводов по сути может быть два: один гласит о том, что различия отсутствуют, другой утверждает противоположное – различия присутствуют. Поэтому до начала эксперимента исследователь может выдвинуть какую-то одну из двух гипотез:
Все статистические методы направлены на проверку нулевой гипотезы, иными словами, они оценивают ее правомочность, т.е. справедливость! Если 95% из полученных данных (0,95 часть от целого объема данных) свидетельствует в пользу нулевой гипотезы, т.е. об отсутствии различий в данных двух групп, то гипотеза принимается! Это означает, что можно сделать вывод об отсутствии достоверных (надежных) различий между данными двух групп. Ту долю данных, которые подтверждают нулевую гипотезу, указывая тем самым на ее значимость, принято называть «уровнем значимости». Для обозначения уровня значимости гипотезы используются две буквы: «р» — критическое значение уровня значимости (заданный стандарт) и «sig» — экспериментально рассчитанный уровень значимости (выдается после расчетов в статических пакетах). «Значимость» по-английски звучит как «significance», поэтому в компьютерных программах этот показатель идет под тремя буквами «sig». Но в статистической литературе обычно уровень значимости записывают по-другому: через латинскую букву «p» — это начальная буква слова «probability», которое означает «вероятность» (имеется в виду вероятность ошибки при выводе). Когда 95% (0,95 от целого объема данных) свидетельствуют в пользу гипотезы, это одновременно означает, что оставшиеся 5% данных (0,05 от целого объема) все же не подчинились данной гипотезе: при сравнении этой части данных были обнаружены существенные различия между группами. По отношению к нулевой гипотезе эта часть не согласующихся с ней данных представляет собой степень ошибочности нулевой гипотезы (ошибка 1-го рода). Учитывая, что 5% не соответствующих данной гипотезе заключений представляют собой малую часть от общего объема данных, такое противоречие гипотезе считается вполне допустимым. На этом основании 5-ти процентный уровень (0,05) ошибочности гипотезы позволяет ее принять. В том случае, когда ошибочность имеет место на уровне не 5-ти процентов, а еще ниже, например, на уровне 1% (0,01 от целого объема данных), то процесс принятия гипотезы становится еще более надежным, т.к. теперь ее подтверждают практически 99% данных. Но при ошибочности гипотезы выше уровня 0,05, ее принимать нельзя! Данные правила принятия гипотезы распространяются и на альтернативную гипотезу: если в пользу данной гипотезы свидетельствует 95% и более данных, а уровень ее ошибочности при этом составляет 5% и менее, то альтернативная гипотеза принимается! Но необходимо помнить, что в статистических пакетах ведется проверка нулевой гипотезы, поэтому выдаются показатели «sig» уровня значимости (справедливости) нулевой гипотезы — гипотезы об отсутствии различий между группами! Что мы можем сказать по этим показателям «sig» об альтернативной гипотезе: можно ее принимать или нет? Чтобы ответить на данный вопрос, проанализируем взаимоотношения двух гипотез. Здесь важно отметить, что поскольку гипотезы являются противоположными по смыслу, то степень справедливости нулевой гипотезы одновременно показывает степень ошибочности альтернативной гипотезы. А степень ошибочности нулевой гипотезы соответствует степени справедливости альтернативной. Таким образом, понятие «уровень значимости» приобретает двойное толкование, а именно, он одновременно показывает степень справедливости нулевой гипотезы и степень ошибочности альтернативной гипотезы! Эти «обратные» взаимоотношения двух гипотез иллюстрирует приведенная ниже схема: насколько справедлива нулевая гипотеза, настолько ошибочна альтернативная.
В таблицах критических значений уровень значимости представлен как степень ошибочности альтернативной гипотезы. Поэтому далее мы тоже будем рассматривать уровень значимости именно как показатель степени ошибочности альтернативной гипотезы! Теперь рассмотрим один очень важный момент, когда бывает нельзя принять ни нулевую гипотезу, ни альтернативную. Такое возможно в том случае, когда «Sig» > 0,05 (из-за чего отвергаем гипотезу о достоверных различиях), но при этом «Sig» < 0,95 (из-за чего отвергаем гипотезу о полном отсутствии различий). Как же тогда интерпретировать различия, если уровень значимости оказался в интервале от 0,95 до 0,05? В данном случае следует признать, что различия между данными двух распределений (или групп) присутствуют, однако они не являются достоверными! Иначе говоря, различия умеренно выраженные, поэтому нельзя утверждать, что их вообще нет или что они очень существенные. Иногда вместо «Sig» исследователи обозначают экспериментально рассчитанный уровень значимости тоже как «р». Поэтому, чтобы сообщить о полученных ими достоверных различиях между данными двух групп, авторы просто пишут р≤ 0,05 (или 0,01), а в случае отсутствия достоверных различий пишут р ≥ 0,05 (или 0,01). Этот способ представления экспериментальных результатов очень распространен в научной литературе, поэтому и вам необходимо его придерживаться при публикациях. Все эти моменты в интерпретации показателя уровня значимости очень важно запомнить потому, что на этом будут строиться выводы из экспериментов. Возвращаясь к вопросу о работе с таблицей критических значений, вы теперь сможете понять, что стоит за цифрами 0,05 и 0,01- это допустимые с точки зрения статистики уровни значимости (справедливости) нулевой гипотезы и одновременно это — уровни ошибочности альтернативной гипотезы. Для двух разных уровней ошибочности задаются и разные критические значения для того или иного критерия. Критические значения представляют собой некоторые установленные стандартные величины, полученные ранее учеными, которые указывают на то, какие пороговые значения должно преодолеть рассчитанное вами экспериментальное значение критерия, чтобы вы смогли принять альтернативную гипотезу (гипотезу о наличии достоверных различий между двумя группами). Если вы стремитесь получить достаточно надежный вывод о достоверных различиях, то вы должны выбрать критическое значение из графы, где указана ошибочность этого вывода на уровне 0,05. Если же от вас требуют высоко достоверного (очень надежного) вывода, тогда вам следует взять критическое значение из графы с уровнем значимости 0,01, где порог критических значений выше, т.к. обеспечивается меньшая ошибочность вывода — на уровне 1%. Выпишем оба критических значения для нашей выборки (строка, где указана степень свободы выборки 20): для р=0,05 критическое значение составляет Dкрит= 0,294, а для р=0,01 оно равно Dкрит=0,356. (Критическое значение из графы, где уровень ошибочности составляет 10%, используется крайне редко и только в особых случаях, поэтому сейчас мы его рассматривать не будем.) Теперь сравним условно полученное нами экспериментальное значение по критерию Колмогорова-Смирнова Dэксп=0,673 с первым критическим значением Dкрит= 0,294. Как видим, экспериментальное значение превысило критическое (табличное). Какой вывод можно из этого сделать? Для каждого статистического критерия существует свое правило построение вывода, т.е. правило принятия альтернативной гипотезы – гипотезы о наличии достоверных различий между группами данных. Применительно к критерию Колмогорова-Смирнова это правило звучит так: если экспериментальное значение критерия равно или больше критического значения, то гипотеза о достоверных различиях принимается. Иными словами, основанием для вывода о достоверных различиях по данному критерию служит выполнение следующего условия: Dэксп ≥ Dкрит (Необходимо запомнить, что в некоторых критериях, которые будут изучаться вами позднее, условие построения вывода о наличии достоверных различий может быть обратным: неравенство будет перевернуто в противоположную сторону.) На основании выше сказанного можем сделать заключение, что в нашем случае выполняется условие для вывода о достоверных различиях между группами, т.к. Dэксп ≥ Dкрит. Причем этот вывод делается с ошибочность 5% (0,05), а теперь сделаем вывод применительно к уровню ошибочности в 1%. Здесь тоже экспериментальное значение 0,673 превысило критическое значение критерия 0,356. Следовательно, вывод о достоверных различиях между группами высоко надежен. В этом случае принято говорить о высоко достоверных различиях между данными двух групп. Поскольку мы получили высоко достоверные различия между нашим экспериментальным распределением данным и распределением, имеющим форму нормального распределения, то мы можем надежно утверждать, что полученное в эксперименте распределение не является нормальным. Из этого могут вытекать и другие выводы, например, о том, что на таком распределении нельзя производить расчет норм (выделять зоны высоких, средних и низких значений) и требуется продолжить сбор статических данных. Перейдем теперь к расчету рассмотренного критерия на практике с помощью статистического пакета SPSS. Для этого соберем экспериментальный материал по методике «Теппинг-тест» на группе студентов. С этой целью вы и ваши друзья должны выполнить данный тест на листе бумаги, который поделен на 6 квадратов. Инструкция к тесту: «По команде экспериментатора вы начнете проставлять точки в произвольном порядке в первом квадрате. Необходимо проставить как можно больше точек в течение 5-ти секунд. Затем по команде экспериментатора «Переход» вы перейдете в следующий квадрат и продолжите ставить там точки. Двигаться по квадратам надо в последовательности «по часовой стрелке». Все время работайте в максимальном для себя темпе до команды «Стоп». Обработка результатов заключается в следующем: подсчитывается количество точек в каждом квадрате и общая сумма точек по всем квадратам. На основе общего количества проставленных точек можно сравнивать испытуемых по продуктивности их моторной функции. Предположим, что 25 человек вашей экспериментальной группы выполнили «Теппинг-тест», и вы посчитали общее количество точек, проставленных каждым испытуемым. В итоге вы получили протокол: 1) 150 Этот протокол нужно ввести в базу данных SPSS в столбец VAR00001. Сначала мы произведем визуальное сравнение экспериментального распределения с кривой нормального распределения, как это делалась на прошлом занятии, а потом выполним сравнение более строго — с помощью критерия Колмогорова-Смирнова. После ввода экспериментальных результатов (протокола) в базу данных, нажимаем команды: Graphs, далее — Chart Builder. В открывшемся окне, где указана рубрика «Choose from», нужно выбрать строку со словом «Histogram». После этого появятся маленькие картинки (образцы) построения гистограмм. Следует выбрать, например, первый рисунок-образец и нажать на него два раза. При построении простого частотного распределения на правом поле в окне «Statistic» выбирается «Frequency Percent» или просто «Frequency» (абсолютное число случаев появления какого-то результата). После выбора курсором данной строки обязательно нажимается кнопка «Apply» в нижней части этого поля, что приводит к появлению данной характеристики на оси ординат в окне условного графика. Только теперь можно нажать на кнопку «ОК» для реального построения графика. Открывается окно «Output» с построенным графиком (если не открывается, то вызвать его через ярлык SPSS внизу экрана). Гистограмма частотного распределения экспериментальных результатов тестирования Если провести огибающую линию по вершинам гистограммы, то она будет напоминать колоколообразную кривую, пусть даже не очень симметричную, что указывает на схожесть кривой с кривой нормального распределения. На этом графике проявились и другие признаки нормального распределения: наиболее часто встретились результаты из средней области значений (по 3-4 случая), а самые крайние по величине результаты оказались очень редки (всего по 1-му случаю). Это дает вам право предположить, что полученное распределение является нормальным. Но чтобы быть твердо уверенным в этом, лучше произвести расчет критерия Колмогорова–Смирнова. Поскольку в базе данных уже введен протокол исследования под именем переменной – VAR 1 (первый столбик), то надо нажать команду Analyze (над таблицей), после чего появится меню с возможными статистическими методами обработки данных. Далее следует выбрать строку с названием группы методов Nonparametric tests. Внутри дополнительного меню надо выбрать строку с надписью 1-Sample K-S, что означает проверку единичной выборки по критерию Колмогорова-Смирнова. Далее откроется окно и в нем два маленьких окошка: перенести название обрабатываемой переменной, например, VAR1, из левого окошка в правое окошка путем выделения этой переменной курсором и нажатием стрелки, указывающий перенос данных из левого окошка в правое. Проверить, чтобы в нижней части окна стояла галочка на строке Normal, что означает сравнение с нормальным распределением. После чего нажать команду ОК для выполнения процедуры расчета критерия. Через несколько секунд на экране высветится таблица с результатами произведенных расчетов.
a. Test distribution is Normal; b. Calculated from data. Из этой таблицы выпишем 2 показателя, которые нужны для построения вывода о нормальности нашего распределения. Это следующие показатели:
Проведем анализ показателей в соответствии с ранее изложенными правилами. Сначала сравним полученное экспериментальное значение критерия, которое оказалось равным Dэксп=0,087, с критическими значениями, выбранным из таблицы с учетом степени свободы выборки и нужным уровнем значимости (0,05 и 0,01). Степень свободы выборки составила: 25-1=24. В таблице нет числа 24, следовательно, берем ближайшее к нему число, т.е. 25, и смотрим, какие величины стоят на этой строке. В графе, соответствующей D0,05, стоит значение Dкрит=0,270, а в графе, соответствующей D0,01, стоит значение Dкрит=0,320. Как видим, Dэксп не превысило ни одного из этих критических значений, т.е. имеет место неравенство Dэксп < Dкрит, а при таких условиях нельзя сделать вывод о наличии достоверных различий между двумя распределениями. Учитывая, что экспериментальное значение критерия оказалось намного ниже критических значений, то более вероятным является вывод о том, что различия между сравниваемыми распределениями практически отсутствуют, иными словами, экспериментальное распределение очень близко по своему характеру к нормальному распределению. Справедливость вывода о том, что полученное распределение практически не отличается от нормального, подтверждает и показатель уровня значимости, представленный в таблице, выданной SPSS: Asymp. Sig. (2-tailed)=0,992. Это говорит о том, что вывод о наличии достоверных различий между двумя распределениями ошибочен на 99%, значит, причем на такой же процент справедлив противоположный по содержанию вывод, т.е. вывод об отсутствии различий между этими распределениями. Напомним, что если вывод справедлив на 99%, то он является очень надежным, и можно говорить о высоко достоверном отсутствии различий. Иными словами, полученное вами экспериментальное распределение практически ничем не отличается от нормального, и потому может считаться вполне нормальным распределением данных. Но каким бы способом вы не сделали свой вывод (путем сравнения экспериментального значения критерия с критическим значением критерия или же путем сравнения полученного уровня значимости с требуемым), результат должен оказаться одним и тем же. Это дает возможность перепроверить правильность построения вывода двояким способом.
Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.008 сек.) |