аппроксимация (от греч. stochastikos - умеющий угадывать, проницательный и лат. approximo - приближаюсь), метод решения широкого класса задач статистического оценивания , при котором каждое следующее значение оценки получается в виде основанной лишь на новом наблюдении поправки к уже построенной оценке. Основными чертами, обусловившими популярность С. а. в теоретических и прикладных работах, явились её непараметричность (применимость при весьма скудной информации об объекте наблюдения) и рекуррентность (простота пересчёта оценки при поступлении нового результата наблюдений). С. а. Применяется во многих прикладных задачах теории управления, обучения, в задачах техники, биологии, медицины. С. а. описана в 1951 американскими статистиками Г. Роббинсом и С. Монро, которые предложили рекуррентный план отыскания корня уравнения регрессии , т. е. корня q уравнения r (x) a в ситуации, когда каждое измеренное значение ук функции R ( x ) в точке Xk содержит случайную ошибку. Процедура Роббинса - Монро даётся формулой xK+i Xk +ак ( ук - a) . При некоторых условиях на функцию R ( x ) , последовательность ak, стремящуюся к нулю, и на характер случайных ошибок доказано, что Xk -¥ при увеличении к. Позже метод С. а. был применен и для решения др. задач: отыскания максимума функции регрессии, оценки неизвестных параметров распределения по наблюдениям и др. На основе изучения предельного распределения нормированной разности xk - q построены асимптотически наилучшие процедуры С. а., в которых последовательность ак нужно выбирать зависящей от наблюдений.
Лит.: Вазан М., Стохастическая аппроксимация. пер. с англ., М., 1972; Невельсон М. Б., Хасьминский Р. З., Стохастическая аппроксимация и рекуррентное оценивание, М., 1972.
Р. З. Хасьминский.