Maxim Bondarenko
Мастер
(1963)
16 лет назад
Корелляция это зависимость. Линейная корелляция соответственно линейная зависимость. Коэффициент линейной корелляции показывает существует или нет и насколько линейная зависимость между двумя случайными величинами (т. е. такая когда приращения одной пропорциональны приращениям другой - на графике изображается прямой линией) . Этот коэфффициент изменяется от -1 до 1 и показывает меру линейной зависимости. Когда 0 - зависимости нет, 1 (или -1) - зависимость функциональная. Знак значения для меры зависимости не имеет, отрицательное значение коэффициента указывает что с увеличением одной величины вторая уменьшается. Но может быть так что зависимость есть а коэффициент линейной корелляции близок к нулю. Это значит просто что зависимость не линейна (точнее плохо приближается линейной зависимостью) . Считать не пробовал, но думаю что например в гармонических колебаниях для зависимости между временем и величиной отклонения от положения равновесия будет именно такой случай (изображается синусоидой) . Для таких случаев в статистике существуют другие показатели меры зависимости. (Названий и формул для них не помню, но при желании можно найти в книгах по мат. статистике) .
Что касается параметрических и непараметрических показателей. Вся статистика основана на применении метода "выборки", тоесть когда берут небольшое количество объектов по ним определяют какие-нибудь показатели и делают вывод о всей генеральной совокупности объектов. При этом выводы естественно верны лишь приближенно. Обычно указывают вероятность с которой они верны. Например для среднего обычно говорят что среднее генеральной совокупности лежитв таких то пределах с такой то вероятностью. Для получения таких выводов обычно используют определенные допущения. Чаще всего предполагают что изучаемая величина распределена по так называемому "нормальному закону" и исходя из этого вводят определенные критерии позволяющие оценить точность и достоверность полученных выводов (т. е. насколько то что получено из выборки можно перенести на генеральную совокупность) . Такое допущение довольно разумно, так как нормальное распределение встречается очень часто, кроме того по центральной предельной теореме Ляпунова если на значение величины влияет много факторов и влияние каждого из них в отдельности не значительно, то величина распределена по нормальному закону. Из этого получают вышеуказанные критерии которые и называют параметрическими (Стьюдента, Фишера и др. )
Но гипотеза о нормальном распределении изучаемой величины верна все же не всегда. Тогда эти критерии применять вообще говоря нельзя. В таких случаях применяют другие критерии при получении которых не использовалось допущение о законе распределения они и называются непараметрическими. Они естественно более грубые, но дают более достоверный результат. Т. е. информации будет получено меньше но она более надежная, хотя может оказаться и безполезной, когда в результате долгих вычислений будет получен какой-нибудь и так очевидный факт например о том что средний рост людей на планете лежит в пределах от 1 до 2,5 метра.
sus_scrofa@inbox.ru
Просветленный
(31287)
16 лет назад
Уважаемый Максим Бондаренко прав, кроме грубости, достоверности и надежности непараметрических критериев. Просто они сравнивают другие параметры. Например медианы вместо среднего или общее рассеяние вместо дисперсии. А основной характеристикой статистического критерия является его мощность - то бишь способность выявлять различия ( ни слова об ошибках 1-го и 2-го рода, тссс) . Да, кстати, линейная или нелинейная бывает регрессия, то есть зависимость Y от X. Тут есть смешение понятий. Для глаза график Y=A*X^B кривая линия, а регрессия (зависимость) при этом остается линейной (это уже из математики) . Поэтому корректнее говорить о прямолинейной и криволинейной зависимостях.