То, насколько рассмотренные алгоритмы удовлетворяют требованиям по точности распознавания, может быть проверено только экспериментально (это сделано в разделе 4). Сейчас же речь пойдёт о том, возможно ли модифицировать эти методы, чтобы они удовлетворяли остальным перечисленным требованиям.
Метод ближайшего соседа
Способность генерировать гипотезы и их уверенности добавляется в этот метод естественным образом: рассматривается не один ближайший сосед, а несколько; классы, к которым они принадлежат, становятся гипотезами. Очевидный способ подсчёта уверенностей — на основании расстояния от классифицируемого объекта до объекта/кластера, соответствующего гипотезе.
С точки зрения скорости предпочтительным оказывается уже упомянутый вариант алгоритма с кластеризацией: в качестве эталонов достаточно хранить не все объекты обучающей выборки, а только центры кластеров. Отметим, что такой вариант алгоритма используется в ABBYY FineReader и потому рассматривается в качестве базового [Ян, 2003].
Наивный байесовский классификатор
Способ генерировать гипотезы и их уверенности в случае байесовского классификатора также достаточно очевиден: необходимо рассмотреть не один класс, доставляющий наибольшую вероятность в выражении (0.2), а несколько лучших вариантов. Эта же вероятность (или какая-либо функция от неё) может являться и мерой уверенности гипотезы.
Вероятности и из выражения (0.2) могут быть подсчитаны заранее, что положительно сказывается на скорости метода. Однако нужно отметить, что, таким образом, общее количество хранимых чисел достаточно велико.