Ну, для любой аппаратуры включение и выключение -- это моменты наибольшего стресса, связанные с большим импульсным энергопотреблением. В качестве резервной меры такое экстренное включение можно было бы предусмотреть, но насколько подобная технология была бы инертной, и, тем более, способной выходить на штатный режим за микросекунды предположить довольно затруднительно. Всё же опыту реальных высоковольтных/сильноточных систем в которых киловольты и амперы никогда не наваливаются и не выключаются мгновенно, можно сказать, что хуй там плавал, в принципе...
Вероятности попадания в каждую категорию остались неизменными, и редкая метрика так сильно чувствует изменение именно статистики. Даже с учётом того что статистика различается в десять раз, я нахожу поразительным тот факт что различие p-value составляет при этом 48 порядков.
Хотя в своей работе я часто пользуюсь тестом Пирсона для оценок согласия модели (binned, отсюда моё заблуждение о необходимости стандартизации распределений), я не применял его к сравнению unbinned-данных, считая его в целом довольно слабым критерием, полезным ровно тем что он не имеет почти никаких предварительных гипотез о характере исследуемых распределений.
да, всё верно, просто я не правильно понял формулу: я думал про нормализованные частоты (вероятности), в то время как в формуле везде приводится число наблюдений (в бинах), но пишут всё равно "frequency". Одно в другое можно перевести, но с коэффициентом пропорциональным выборке, то есть: \chi^2 = \sum\limits_i (O_i - E_i)^2 / E_i = N \sum\limits_i (O_i/N - E_i/N)^2 / (E_i/N). То есть хи-квадрат выраженный через вероятности всё равно пропорционален N. Получается контринтуитивная вещь, вообще говоря, -- в опыте из поста хи-квадрат и p-value тем будут "лучше", чем меньшее количество опытов он сделал. В этом можно убедиться, если поделить каждый класс, скажем на 10 (как будто он бросил не 5000 раз а 500), p-value получится уже в районе 0.05.
Про биномиальное распределение я, скорее, пошутил, потому что понадобилось бы записывать всю историю последовательности бросков и считать число последовательных "успехов" для каждой из 20-и граней. Но так можно было бы тестировать кубик меньшим числом опытов, и всякие там рулетки обычно так и проверяют. По идее, оно должно переходить в хи-квадрат при достаточно большом количестве опытов (в силу центральной предельной теоремы), и 250 -- это уже вполне солидно.
Это число (сумма квадратов отклонений) само по себе мало о чём говорит.
Обычно смотрят либо отношение к числу степеней свободы (в данном случае к 20), оно должно быть близко к единице при достаточно большой статистике, но это тоже довольно рукосуйский критерий.
Правильно смотреть т.н. p-value -- вероятность получить такие же или более экстремальные значения. Чтобы понимать, что это значит, нужно приложить некие усилия, но rule of thumb тут будет в том, что если получившийся p-value меньше какого-то небольшого числа (т.н. уровня статистической значимости) которое обычно выбирается до эксперимента, то, вероятно, наёбывают. Например, если p-value получается, скажем, 0.3, то это ещё нормально, 0.01 -- уже вероятно, что наебали, 1e-16 -- ну точно наебали, p-value 1.2e-50 -- это пиздец, пора звонить в полицию.
Но в посте пример какой-то странный. Во-первых, проверять следовало биномиальное распределение, во-вторых, раз уж проверяется равномерное, для теста по Пирсону, он должен был получить посчитать стандартизированные квадраты отклонений, и как он получил для 20-и степеней свободы хи-квадрат 300 совершенно неясно.
Я выдал 200+ слов чтобы предупредить человека, возможно, незнакомого с жанром от (весьма вероятно) бездарно потраченного времени. Из "художественных ходов" я упомянул только путешествие, из отсылок вообще ничего. Что я выискивал по-твоему?
Там не нужно "глубоко копать", там вся затея плавает на поверхности, только веточкой прикрыта.
И, на тот случай если ты реально считаешь структуралистские заигрывания каким-то охуенно-глубоким смыслом, то добро пожаловать в современность, где кэмпбелловский мономиф уже даже не попса, см. хотя бы ролик внизу от tachchan
Хотя в своей работе я часто пользуюсь тестом Пирсона для оценок согласия модели (binned, отсюда моё заблуждение о необходимости стандартизации распределений), я не применял его к сравнению unbinned-данных, считая его в целом довольно слабым критерием, полезным ровно тем что он не имеет почти никаких предварительных гипотез о характере исследуемых распределений.
Обычно смотрят либо отношение к числу степеней свободы (в данном случае к 20), оно должно быть близко к единице при достаточно большой статистике, но это тоже довольно рукосуйский критерий.
Правильно смотреть т.н. p-value -- вероятность получить такие же или более экстремальные значения. Чтобы понимать, что это значит, нужно приложить некие усилия, но rule of thumb тут будет в том, что если получившийся p-value меньше какого-то небольшого числа (т.н. уровня статистической значимости) которое обычно выбирается до эксперимента, то, вероятно, наёбывают. Например, если p-value получается, скажем, 0.3, то это ещё нормально, 0.01 -- уже вероятно, что наебали, 1e-16 -- ну точно наебали, p-value 1.2e-50 -- это пиздец, пора звонить в полицию.
Но в посте пример какой-то странный. Во-первых, проверять следовало биномиальное распределение, во-вторых, раз уж проверяется равномерное, для теста по Пирсону, он должен был получить посчитать стандартизированные квадраты отклонений, и как он получил для 20-и степеней свободы хи-квадрат 300 совершенно неясно.
Там не нужно "глубоко копать", там вся затея плавает на поверхности, только веточкой прикрыта.
И, на тот случай если ты реально считаешь структуралистские заигрывания каким-то охуенно-глубоким смыслом, то добро пожаловать в современность, где кэмпбелловский мономиф уже даже не попса, см. хотя бы ролик внизу от tachchan