Вопрос такой: почему не существует поисковиков, которые понимали бы поданный им запрос? Современные поисковики ищут просто по образцу и порой выдают полнейший шизофренический бред (если смотреть с точки зрения смысла).
Но, казалось бы, уже в 70-х годах были программы, которые могли на ограниченной предметной области отвечать на вопросы, заданные на естественном языке. Почему же это не используется в Гугле и Яндексе?
Только ли в объёме предметной области дело, или же есть какие-то другие проблемы?
Проблема чисто техническая. Синтаксический и семантический анализ текста требуют больших вычислительных затрат. А поисковику и без того нужно индексировать весь internet и отвечать на десятки запросов ежесекундно. Поэтому алгоритмы поиска тщательно оптимизируются, и даже в этом случае требуются тысячи взаимодействующих между собой мощных серверов.
Так что покуда производительность вычислительной техники не повысится на несколько порядков, притом, с учётом того, что нагрузка тоже растёт по мере роста сети, ждать существенного совершенствования поисковых алгоритмов не приходится.
Вот системы вроде "Галактика-Zoom" используют более совершенные алгоритмы, вот тут прогресс вполне возможен. Хотя, видимо, статистические методы обработки часто имеют больший успех, и они используются активнее, чем лингвистические. Но тут перспектива лингвистических методов тоже есть, и по мере успеха в корпоративных информационных системах они, вероятно, применяться будут. А вот до Internet-поисковиков в ближайшие 10 лет вряд ли подобные тенденции дойдут, если только квантовые вычислительные машины не научатся делать.