Устойчивость алгоритмов обучения классификации, основанных на модифицированной модели вычислении оценок

В этой статье получен следующий теоретический результат: существует устойчивый алгоритм $\mathcal{A}$ обучения модифицированной модели $ABO^{*}$, гарантирующий её обучаемость в форме универсального эмпирического обобщения непосредственно по одной обучающей выборке путём минимизации эмпирического риска. Чтобы получить этот результат, была доказана $LOO$ устойчивость алгоритма $\mathcal{A}$. Алгоритм $\mathcal{A}$ подробно описан в статье и является процедурой обучения с адаптацией, предполагающей варьирование только весов объектов обучающей выборки. Остальные параметры модели полагаются фиксированными. Этого оказалось достаточно, чтобы добиться требуемого результата. Предлагаемая модификация модели $ABO$ минимальна: при вычислении оценок исключается только случай суммирования, когда объект «голосует за себя». Легко показать, что в случае, когда модифицированная модель $ABO^{*}$ основана на использовании кратчайших элементарных логических отделителей (в частности – тупиковых тестов), универсальное эмпирическое обобщение будет также иметь место.

Ключевые слова:: модифицированная модель $ABO^{*}$, устойчивость алгоритмов обучения, обучаемость.

Журнал: 
УДК: 
519.95