Главное меню
Мы солидарны с Украиной. Узнайте здесь, как можно поддержать Украину.

Ответ

Обратите внимание: данное сообщение не будет отображаться, пока модератор не одобрит его.
Ограничения: максимум вложений в сообщении — 3 (3 осталось), максимальный размер всех файлов — 300 КБ, максимальный размер одного файла — 100 КБ
Снимите пометку с вложений, которые необходимо удалить
Перетащите файлы сюда или используйте кнопку для добавления файлов
Вложения и другие параметры
Проверка:
Оставьте это поле пустым:
Наберите символы, которые изображены на картинке
Прослушать / Запросить другое изображение

Наберите символы, которые изображены на картинке:

√36:
ALT+S — отправить
ALT+P — предварительный просмотр

Сообщения в этой теме

Автор kemerover
 - января 17, 2021, 18:08
Стандартизированная оценка показывает насколько далеко значение от среднего. Удобство такой оценки в том, что все переменные приводятся к одной мере — стандартному отклонению.

Если переменная распределена нормально, то по такому показателю легко понять квантиль: например, вероятность, что стандартизированная оценка будет больше 3 или меньше -3 равна 0.3%. Также нормализация нужна для применения некоторых статистических методов, опять же, потому что переменные разных размерностей приводятся к одной мере.

Просто так, конечно, нормализовывать каждую переменную смысла довольно мало. Если ваша статистическая модель имеет структуру, в которой важны размерности (тривиальный пример: у вас есть координаты каких-то точек на карте, и вы хотите найти кластеры из точек), то нормализуя данные вы теряете информацию, и получаете малоинтепретируемые бесполезные данные.
Автор Versteher
 - января 17, 2021, 17:17
Данныя нормализуютъ, отнимая изъ образца среднее ариѳметическое и дѣля это дѣло на среднеквадратическое отклоненіе.
А каковъ въ этомъ общій смыслъ?
Въ числителѣ мы получаемъ разницу между даннымъ образцомъ и среднимъ по выборкѣ. Но для чего намъ дѣлить на мѣру разброса въ выборкѣ? каковъ смыслъ этого частнаго? спасибо