Гипотеза: пользователи не находят нужную информацию с первого раза
Гипотеза: пользователи не находят нужную информацию с первого раза
В ходе обсуждения различных поисковых механизмов у нас появилась простая, но от этого не менее интересная гипотеза. Её смысл заключается в том, что зачастую при поиске человек не находит нужную информацию с первого раза, осуществляется как минимум несколько итераций с различными параметрами.
Если есть гипотеза, то нужно доказать её истинность или ложность. Беглый опрос людей никаких конкретных результатов не дал. Кто-то утверждает, что он человек-google и способ найти любой нужный документ с первого раза, а кто-то подтверждает гипотезу и говорит, что часто приходится по несколько раз осуществлять поиск для нахождения желаемого документа.
Далее мы решили собрать статистические данные одной из систем по всем осуществленным поискам всех пользователей за месяц. Основные статистические выкладки представлены ниже.
Статистика в целом подтверждает нашу гипотезу. Действительно, примерно 47% всех поисков являются цепочками в среднем из 3 связанных запросов. Получается, что примерно 31% (2/3 от повторных запросов) всего времени затраченного на поиск, как человеком, так и машиной, является малорезультативным, не приносящим ожидаемого результата. Все это выглядит как хорошая стартовая точка для оптимизации системы, тем более что, конечно же, методы и технологии имеются, т.к. современные поисковые интернет-системы уже давно сравнительно успешно решают задачу результативности поиска.
На ум приходит два направления работ по оптимизации:
- Ускорение времени выполнения поисковых запросов. Это позволит сэкономить время пользователя на ожидание и увеличит общий комфорт от работы с системой.
- Разработка новых удобных пользовательских интерфейсов, пересмотр принципов организации поиска. Пользователь должен иметь возможность легко и быстро менять условия поиска, комфортно осуществлять навигацию по найденной информации, а также получать подсказки и первые результаты уже в процессе ввода запроса.
Что характерно, целью в обоих случаях не является увеличение доли запросов, по которым система выдает ожидаемый результат с первой попытки, с 53% до, скажем, 80-90%. Целью является создание такого инструмента поиска, который бы позволил пользователю эффективнее строить и обрабатывать выборки без негативного влияния на производительность системы.
Для решения задач из первого направления следует рассматривать возможность применения новых технологий, в их числе, новые способы хранения данных, подключение новых поисковых движков, позволяющих существенно ускорить поиск. Во втором направлении стоит обдумать возможность реализации принципов фасетного поиска, отказаться от синхронного атрибутивного поиска, перевести всё на real-time рельсы, применить различные интерактивные элементы управления, например слайдеры, облака объектов и т.п., а так же применить инструменты коррекции ошибок, вывод подсказок при вводе запроса и выдачу результатов в процессе его ввода.
Комментарии 5
Мне данная статья понравилась - особенно использование статистики. Но я бы всё же разделила вопрос как минимум на два:
1) поиск информации, которую в принципе можно однозначно идентифицировать (например, поиск документа по точно известному названию, регистрационному номеру и т.п.). В этом случае хорошо обученный пользователь обязан найти документ с первой попытки.
2) поиск информации по заданной теме, когда заранее неизвестно, где именно она содержится. В таком случае повторные запросы с уточнением критериев поиска будут нормой. Кстати говоря, интересно было бы посмотреть, связана ли длина поисковой цепочки с числом хитов (можно предположить, что в случае большого числа хитов больше вероятность уточняющих запросов).
Конечно, тут уже, наверное, придётся собирать совсем другую статистику...
Странно, что возникает вопрос об ускорении выполнения поисковых запросов. В этом случае система, скорее всего, не соответствует ТЗ :)
Очень жаль, что в статье проявился и типичный для ИТ-специалистов недостаток - думая об оптимизации, забывать о том, что обучение пользователей способно часто дать куда большую отдачу, чем новые могучие движки и сервера :)
Ничего странного. Технологии идут вперед, и то что 5 лет назад казалось нормой и удовлетворяло требованиям среднестатистических пользователей, сегодня кажется устаревшим и требующим модернизации. Особенно если учесть насколько современные пользователи избалованы поиском в том же google/yandex, эти ИПС за миллисекунды обрабатывают миллионы записей и выдаёт релевантный результат.
Оптимизация это процесс совершенствования, а как известно нет предела совершенству.
Все прекрасно умеют пользоваться интернет-поиском, не нужно придумывать свои велосипеды и навязывать пользователю свой принцип работы, наоборот, нужно адаптироваться под потребности пользователей и делать поиск интуитивно понятным, не требующим дополнительных курсов обучения.
А сколько пользователей в этой системе? Или это "ваще" в любой СЭД столько запросов в месяц? :)
Ну, и инфографика такая примитивная, можно было бы хотя бы сделать в разрезах, как предлагает Наталья и ваши нижеследующие выкладки в процентах туда же добавить. Было бы интереснее.
А так почин хороший. Удачи!
Михаил, мною представлена статистика средней по размеру компании с численность до 500 человек. По поводу инфографики, все таки это не обзорная статья, а пост, и мне не хотелось перегружать его информацией.
Хороший пост, и в комментариях замечания интересные. От себя добавлю еще одну идею.
Что такое цепочка поисковых запросов? На основе уже полученных результатов формируется новый поисковый запрос. А что же это за информация такая, которая позволяет уточнить поисковый запрос? Может ли система догадаться, какие изменения в поисковом запросе можно предложить ищущему?
Предполагаю, что анализ истории запросов в поисковой цепочке вместе с анализом результатов этих запросов может дать кое-какие ответы на эти вопросы.