Главное меню
Мы солидарны с Украиной. Узнайте здесь, как можно поддержать Украину.

Ответ

Обратите внимание: данное сообщение не будет отображаться, пока модератор не одобрит его.
Ограничения: максимум вложений в сообщении — 3 (3 осталось), максимальный размер всех файлов — 300 КБ, максимальный размер одного файла — 100 КБ
Снимите пометку с вложений, которые необходимо удалить
Перетащите файлы сюда или используйте кнопку для добавления файлов
Вложения и другие параметры
Проверка:
Оставьте это поле пустым:
Наберите символы, которые изображены на картинке
Прослушать / Запросить другое изображение

Наберите символы, которые изображены на картинке:

√36:
ALT+S — отправить
ALT+P — предварительный просмотр

Сообщения в этой теме

Автор Ilya81
 - ноября 13, 2007, 15:22
Проблема чисто техническая. Синтаксический и семантический анализ текста требуют больших вычислительных затрат. А поисковику и без того нужно индексировать весь internet и отвечать на десятки запросов ежесекундно. Поэтому алгоритмы поиска тщательно оптимизируются, и даже в этом случае требуются тысячи взаимодействующих между собой мощных серверов.

Так что покуда производительность вычислительной техники не повысится на несколько порядков, притом, с учётом того, что нагрузка тоже растёт по мере роста сети, ждать существенного совершенствования поисковых алгоритмов не приходится.

Вот системы вроде "Галактика-Zoom" используют более совершенные алгоритмы, вот тут прогресс вполне возможен. Хотя, видимо, статистические методы обработки часто имеют больший успех, и они используются активнее, чем лингвистические. Но тут перспектива лингвистических методов тоже есть, и по мере успеха в корпоративных информационных системах они, вероятно, применяться будут. А вот до Internet-поисковиков в ближайшие 10 лет вряд ли подобные тенденции дойдут, если только квантовые вычислительные машины не научатся делать.
Автор Dims
 - октября 3, 2007, 04:01
Вопрос такой: почему не существует поисковиков, которые понимали бы поданный им запрос? Современные поисковики ищут просто по образцу и порой выдают полнейший шизофренический бред (если смотреть с точки зрения смысла).

Но, казалось бы, уже в 70-х годах были программы, которые могли на ограниченной предметной области отвечать на вопросы, заданные на естественном языке. Почему же это не используется в Гугле и Яндексе?

Только ли в объёме предметной области дело, или же есть какие-то другие проблемы?