Ответ

Обратите внимание: данное сообщение не будет отображаться, пока модератор не одобрит его.
Ограничения: максимум вложений в сообщении — 3 (3 осталось), максимальный размер всех файлов — 300 КБ, максимальный размер одного файла — 100 КБ
Снимите пометку с вложений, которые необходимо удалить
Перетащите файлы сюда или используйте кнопку для добавления файлов
Вложения и другие параметры
Проверка:
Оставьте это поле пустым:
Наберите символы, которые изображены на картинке
Прослушать / Запросить другое изображение

Наберите символы, которые изображены на картинке:

√36:
ALT+S — отправить
ALT+P — предварительный просмотр

Сообщения в этой теме

Автор Марбол
 - июля 31, 2011, 23:26
Моя предыдущая выкладка показывает только, что в рамках статьи, при указанных условиях, два признака не могут нести одинаковое количество информации.

Надеюсь, Lassie как-нибудь выскажется по моим вопросам.
Между прочим, Lassie, чья это статья?
Автор Марбол
 - июля 30, 2011, 21:24
Например, а и б - два признака примерно равной информативности; В и Г - два слова, у В есть только признак а, у Г - только б. Предположим, вообще признак а охватывает в N раз больше слов, чем б. Тогда, чтобы по набору (а, б) между этими словами расстояние было равно 0, нужно, чтобы коэффициент достоверности по а для В был тоже в N раз больше, чем коэффициент достоверности по б для Г. То есть, признак а должен быть важнее для В в N раз, чем б для Г. Например, б - вообще периферийный для Г, так что доля употреблений Г с б сравнительно ничтожна, по отношению ко всем остальным употреблениям Г. Напротив, а для В - доминирующий признак, а число остальных употреблений В ничтожно мало. Значит, чтобы между В и Г было нулевое расстояние, нужно, чтобы всех слов с признаком б должно быть ничтожно мало, по сравнению со словами с признаком а. - При том, что количество информации у признаков равное. По крайней мере качественно, эта картина не подтверждается логарифмической формулой для количества информации признака: у а информативность оказывается порядочно выше, чем у б, поскольку J(б) = log(μ(Γа+б)!)-log{(μ(Γа+б)-μ(Γб))!k(б)} ~ log(μ(Γа+б)!)-log(μ(Γа+б)!) ~ 0
Автор Марбол
 - июля 30, 2011, 20:07
Здравствуйте!

По-видимому, в статье действительно норма слова ||x||Q и количество информации J(q) признака q определяются одно через другое, по порочному кругу. Может быть, здесь можно выразить J через ||x|| и, подставив в выражение для ||x||, составить уравнение (может быть, не разрешимое в явном виде). Но я в упор не могу понять, зачем, при определении нормы слова по формуле (2), вводится делитель γ(q). Это делится информативность J(q) признака q, как такового, на количество γ(q) слов, обладающих им? - А зачем, в чём логика этого? Якобы, информационный вклад данного признака, по сравнению с другими признаками, в употребление данного слова тем меньше, чем больше других слов отвечают этому признаку?..
Автор Чайник777
 - июля 30, 2011, 09:09
Цитата: Artemon от июля 30, 2011, 02:25
Ну тогда полюбопытствуйте, чем занимается ИРЯ РАН, и скажите, что после этого делать простому журналисту. :)
http://www.ruslang.ru/doc/seminar_codif_orth5.pdf
Какая-то не вызывающая особого уважения и интереса деятельность  :(
Автор Artemon
 - июля 30, 2011, 02:25
Цитата: RawonaM от июля 29, 2011, 08:20
Цитата: Чайник777 от июля 29, 2011, 08:15
Причём тут вообще корпус и норма? Если ваши знакомые неправильно используют корпус и гугл (для проверки орфографии), то что тут можно сделать?
+1. Как-то все в одну кучу. Плунгян хорошо о норме сказал в этой лекции. Мухи отдельно, котлеты отдельно.
Ну тогда полюбопытствуйте, чем занимается ИРЯ РАН, и скажите, что после этого делать простому журналисту. :)
http://www.ruslang.ru/doc/seminar_codif_orth5.pdf
Автор Lassie
 - июля 30, 2011, 01:23
А мои вопросы никто не удостоит ответом? :(
Автор Марбол
 - июля 29, 2011, 20:30
Здравствуйте!

Это несколько другая тема; я прошу модераторов вынести отсюда в отдельную дискуссию разговор о приложении математики к описанию языковых знаков.
Автор arseniiv
 - июля 29, 2011, 13:00
Цитата: Марбол от июля 27, 2011, 18:33
надо задаться принципом возможности сравнения любых двух значений, ввести некую семантическую алгебру. Не знаю, можно ли и как можно это сделать.
Меня тоже вопрос корректного введения интересует. Для «дискретных» значений (напр., у терминов) довольно просто, а вот структура непрерывных понятий совсем не ясна.
Автор Alone Coder
 - июля 29, 2011, 12:20
Все беды - от стереотипа, что ожеговка правильна и безошибочна.
Автор RawonaM
 - июля 29, 2011, 08:20
Цитата: Чайник777 от июля 29, 2011, 08:15
Причём тут вообще корпус и норма? Если ваши знакомые неправильно используют корпус и гугл (для проверки орфографии), то что тут можно сделать?
+1. Как-то все в одну кучу. Плунгян хорошо о норме сказал в этой лекции. Мухи отдельно, котлеты отдельно.