Методы нахождения оценок максимального правдоподобия — КиберПедия 

Археология об основании Рима: Новые раскопки проясняют и такой острый дискуссионный вопрос, как дата самого возникновения Рима...

Типы сооружений для обработки осадков: Септиками называются сооружения, в которых одновременно происходят осветление сточной жидкости...

Методы нахождения оценок максимального правдоподобия

2017-10-09 452
Методы нахождения оценок максимального правдоподобия 0.00 из 5.00 0 оценок
Заказать работу

ВВОДНЫЕ ЗАМЕЧАНИЯ

 

Из результатов предыдущей главы видно, что нахождение оценок максимального правдоподобия является существенным элементом адап­тивного байесова подхода и до некоторой степени даже его основой в случае параметрически заданной априорной неопределенности. Метод максимального правдоподобия, как мы видели ранее в гл. 2, 4, 5, имеет и большое самостоятельное значение. Он позволяет в ряде случаев най­ти минимаксное решение задачи с гарантированным уровнем риска и дает возможность выявить достаточные или квазидостаточные статисти­ки. В связи с этим в настоящей главе более подробно рассмотрим мето­ды получения и свойства оценок максимального правдоподобия.

Этому вопросу посвящена довольно обширная литература, начиная сранних работ по классической математической статистике, поэтому, возможно, значительная часть того, что будет изложено ниже, хорошо известна многим читателям. Это в особенности относится к случаю ре­гулярных оценок по совокупности независимых данных наблюде­ния, соответствующему этому случаю неравенству Крамера-Рао и асимптотической эффективности регулярных оценок максимального правдоподобия. Наряду с этим имеется много сравнительно малоиз­вестных аспектов метода максимального правдоподобия: влияние ста­тистической зависимости данных наблюдения на сходимость и точность оценок максимального правдоподобия; нерегулярность, когда функция правдоподобия недифференцируема по оцениваемым параметрам; ре­куррентные процедуры нахождения оценок максимального правдоподо­бия и их свойства и т. д. Наличие подобных аспектов, а также большое значение метода максимального правдоподобия для решения задач син­теза в условиях априорной неопределенности делают целесообразным систематическое изложение основных фактов, относящихся к методам получения и свойствам оценок максимального правдоподобия. Большин­ство этих фактов будет приведено без доказательства со ссылками на оригинальные и популярные работы, в которых такие доказательства имеются.

Прежде чем перейти к дальнейшему изложению, напомним некото­рые основные определения. Пусть имеется совокупность данных наблю­дения , которую обычно будем представлять в виде вектора , каждая компонента которого соответствует одному наблюде­нию и, в свою очередь, может быть вектором того или иного порядка или даже отрезком реализации некоторого непрерывного случайного процесса. Пусть эти данные наблюдения зависят от некоторого парамет­ра размерности . (Нам удобно ввести здесь новое обозначение для неизвестных параметров, чтобы иметь возможность в дальнейшем понимать под как параметры , характеризующие ап­риорную неопределенность в статистическом описании и , так и сами параметры , влияющие на последствия принимаемых решений и являющиеся предметом оценки в исходной задаче статистического ре­шения, так и, наконец, совокупность тех и других параметров.) Зависи­мость данных наблюдения от параметров описывается функцией правдоподобия

(7.1.1)

где - плотность совместного распределения вероятности при заданном значении , а оценка максимального прав­доподобия определяется из уравнения максимального правдоподобия

(7.1.2)

где максимум находится по области допустимых значений . Уравнение (7.1.2) эквивалентно следующему уравнению для логарифма функции правдоподобия, которым часто будем пользоваться в дальнейшем:


(7.1.3)


где

(7.1.4)

Если для каждого из допустимого множества значений для почти всех значений существуют частные производные причем

где - интегрируемые по всему пространству функции, то оценка максимального правдоподобия является регулярной и уравнение макси­мального правдоподобия может быть представлено в одной из эквива­лентных форм

(7.1.5)


или

(7.1.6)

где - оператор градиента по компонентам век­тора .

Регулярный случай, пожалуй, чаще всего встречается на практике. Однако во многих важных практических задачах свойство регулярности не выполняется, что заставляет рассматривать и более общий случай, для которого некоторые закономерности поведения регулярных оценок могут и не соблюдаться. Если наряду с оценкой максимального правдоподобия рассмотреть какую-либо другую функцию , которая не является решением уравнения максимального прав­доподобия, то очевидно, что при весьма общих предположениях о виде этой функции можно считать ее оценкой параметра , более того, и совершенно произвольную функцию вектора можно также назвать оценкой , хотя возможно, что точность этой оценки будет со­вершенно неудовлетворительной. В дальнейшем нам понадобится опре­деление регулярности и для оценки произвольного вида. Чтобы ввести это определение, зададим взаимно однозначное преобразование


(7.1.7)


где - некоторая многомерная функция дополняющая преобразование до взаимно однозначного. В силу взаимной однозначности этого преобразования две совокупности и статистически эквивалентны, по­этому вместо исходной совокупности данных наблюдения можно рассматривать преобразованную совокупность статистическое описание которой задается функцией правдоподобия , получающейся применением преобразования (7.1.7) к исходной функции правдоподобия (7.1.1).

Функцию правдоподобия , очевидно, можно записать в виде


(7.1.8)


где и - соответствующие условные плотности ве­роятности. Оценка называется регулярной, если для каждого из заданного множества значений для почти всех значений и существуют частные производные , причем

где и - функции, интегрируемые по всему пространству и соответственно.

Совокупность этих условий несколько жестче, чем простое требова­ние дифференцируемости функции правдоподобия. Они накладывают определенные ограничения не только на , но и на возможные виды преобразования , то есть на структуру оценочных функций.

Всякая оценка отличается от истинного значения . Про­стейшей характеристикой этого отличия является математическое ожи­дание разности

(7.1.9)

вообще говоря, зависящее от и называемое смещением оценки. Оцен­ка, для которой называется несмещенной.

Важным понятием является также понятие достаточной оценки. Оценка называется достаточной, если условная плотность ве­роятности в (7.1.8) не зависит от . Достаточная оценка является, очевидно, минимальной достаточной статистикой для пара­метра : достаточной в силу того, что она удовлетворяет основному требованию к любой достаточной статистике (гл. 2), а минимальной - в силу того, что размерность этой статистики (вектора ) совпадает с размерностью вектора неизвестных параметров . Если существует какая-либо достаточная оценка , то любая лучшая оценка может быть только функцией .

 

Конечные методы

 

При решении уравнения правдоподобия (7.1.2), (7.1.3) может быть использован любой из известных методов максимизации функции век­торной переменной . Только в редких случаях максими­зирующее значение - оценка максимального правдоподобия нахо­дится точно. В частности, это заведомо удается сделать, если функция правдоподобия такова, что

(7.5.1)


где матрица положительно (или отрицательно) определен­ная при всех и , а уравнения


(7.5.2)


имеют решения. Эти решения

(7.5.3)


где - функция, обратная , и являются компонентами вектора оцен­ки максимального правдоподобия.

Простейшим частным случаем (7.5.1) является случай, когда лога­рифм функции правдоподобия квадратично зависит от , то есть

(7.5.4)

где - скаляр; - вектор той же размерности т, что и ; - неособая матрица порядка . При этом оценка максималь­ного правдоподобия

(7.5.5)

где - матрица, обратная .

Другим распространенным примером, для которого выполняется (7.5.1), является случай, когда

(7.5.6)

В этом случае оценка максимального правдоподобия

(7.5.7)

Число таких примеров, как соответствующих (7.5.1), так и несоот­ветствующих этому условию, но допускающих точное решение уравнения правдоподобия, в том числе и для нерегулярного случая (примеры § 7.4 и др.), довольно велико, однако еще более многочисленны случаи, когда точное аналитическое решение уравнения правдоподобия получить невозможно. При этом для нахождения оценки используются различ­ные приближенные методы. Выбор того или иного из них определяется исходя из точности приближенного решения и вычислительной просто­ты. В частности, в регулярном случае широко распространены различ­ные варианты итеративных процедур, в том числе градиентный метод, метод наискорейшего спуска, метод Ньютона, метод золотого сечения и т.д. Любой из них является методом последовательных приближений и при определенных условиях обеспечивает достаточно быструю схо­димость к истинному решению уравнения максимального правдоподо­бия. Приведем для примера алгоритм нахождения оценки максималь­ного правдоподобия, соответствующий методу Ньютона. В этом случае k-я итерация, определяющая очередное приближение к оценке мак­симального правдоподобия , производится по правилу


, (7.5.8)


где - приближение, полученное на -м шаге, а начальное приближение выбирается произвольно с учетом имеющихся представлений о существе задачи. Входящий в (7.5.8) оператор представляет со­бой результат умножения вектора-столбца на транс­понированный ему вектор (строку) и является матрицей вида так что результат воздействия этого опе­ратора на функцию также представляет собой матрицу

(7.5.9)

a , как всегда, обратная матрица.

Проиллюстрируем применение этого алгоритма на примере оценки единственного параметра для случая, когда логарифм функ­ции правдоподобия представляется в виде

(7.5.10)

где х - вектор некоторой размерности; - некоторые функ­ции х; - известная величина, функция имеет единственный мак­симум (для определенности при ) и является четной относительно этого значения, а суммирование производится по такому множеству значений j, что интервал от до полностью перекрывает диапазон возможных значений параметра . К функции правдоподобия, соответствующей (7.5.10), приводят многие задачи радиотехнических измерений (частоты, задержки радиолокационного сигнала, направле­ния на источник излучения).

Выберем в качестве нулевого приближения для оценки макси­мального правдоподобия величину, соответствующую какому-либо из дискретных значений , например . Для того чтобы это значение давало максимально возможную величину функции правдоподобия, очевидно, его нужно выбрать так, чтобы

(7.5.11)

В силу свойств функции выбор любого другого т приведет к уменьшению логарифма функции правдоподобия. Таким образом, наи­более правдоподобным дискретным приближением к оценке максималь­ного правдоподобия является величина

(7.5.12)

где m определяется условием (7.5.11) и соответствует тому номеру j, для которого величина максимальна.

Следующее приближение вычисляется в соответствии с алгорит­мом Ньютона (7.5.8) и дается выражением

(7.5.13)

где учтена четность функции . Если последняя, как это бывает в практических задачах, достаточно быстро убывает с увеличением , так что и , то в числителе и знаменате­ле выражения (7.5.13) можно ограничиться только первыми слагаемы­ми. В результате

(7.5.14)

то есть оценка получается зависящей только от наибольшей из величин и двух ближайших к ней. Приближение (7.5.14), как правило, оказывается достаточно точным, и следующие итерации не требуются.

 

Рекуррентные методы

 

При большом объеме совокупности данных наблюдения х конечные методы решения уравнения правдоподобия приводят к значительным вычислительным трудностям, связанным с необходимостью запомина­ния большого числа исходных данных и промежуточных результатов вычислений. В связи с этим особый интерес представляют рекуррентные методы, в которых оценка максимального правдоподобия вычисляется по шагам с постепенно увеличивающейся точностью, причем каждый шаг связан с получением новых данных наблюдения, а рекуррентная проце­дура строится так, чтобы хранить в памяти по возможности наименьшее количество данных от предыдущих шагов. Дополнительным и весьма существенным с практической точки зрения преимуществом рекуррент­ных методов является готовность к выдаче результата на любом про­межуточном шаге.

Это обусловливает целесообразность применения рекуррентных ме­тодов даже в тех случаях, если удается получить точное решение урав­нения максимального правдоподобия конечным методом, и делает их еще более ценными, когда невозможно найти точное аналитическое вы­ражение для оценки максимального правдоподобия.

Пусть совокупность данных наблюдения представляет собой по­следовательность для описания которой введем вектор . (Как всегда, каждая его компонента , в свою очередь, может быть вектором, отрезком случайного процесса и т. д.). Пусть - функция правдоподобия, а

(7.5.15)

ее логарифм. Последний всегда можно представить в виде

(7.5.16)

где

(7.5.17)

- логарифм функции правдоподобия для совокупности данных наблю­дения без последнего значения, а

(7.5.18)

- логарифм условной плотности вероятности значения при заданных значениях и .

Представление (7,5.16) для логарифма функции правдоподобия яв­ляется основой для получения рекуррентной процедуры вычисления оценки максимального правдоподобия. Рассмотрим регулярный случай. При этом оценка максимального правдоподобия может быть найдена как решение уравнения

, (7.5.19)

которое отличается от (7.1.6) только введением индекса п у логарифма функции правдоподобия.

Обозначим решение этого уравнения через подчеркнув тем са­мым, что эта оценка получена по совокупности данных наблюдения . Аналогично обозначим через решение уравнения - оценку максимального правдоподобия, полученную по совокупности данных .

Уравнение (7.5.19) можно переписать с учетом (7.5.16) в следующем виде:

. (7.5.20)

Разложим левую часть (7.5.20) в ряд Тейлора в окрестности точки . При этом

(7.5.21)

где

(7.5.22)

- вектор градиента функции в точке ; слагаемое обращается в нуль благодаря тому, что , является решением уравнения правдоподобия для предыдущего (п - 1)-го шага:

(7.5.23)

- симметричная матрица вторых производных логарифма функции правдоподобия в точке , взятая с обратным знаком, аненапи­санные члены разложения имеют квадратичный и более высокий поря­док малости относительно разности . Пренебрегая этими по­следними, получаем следующее приближенное решение уравнения ма­ксимального правдоподобия:

(7.5.24)

где - матрица, обратная .

Это решение представлено в форме рекуррентного соотношения, определяющего очередное значение оценки через оценку на предыдущем шаге и поправку , зависящую от имеющихся данных наблюдения непосредственно и через предыдущую оценку. Поправка формируется как произведение градиента логарифма условной плотно­сти вероятности вновь полученного значения х n в точке , равной предыдущей оценке, на весовую матрицу . По­следняя определяется выражением (7.5.23) и также зависит от оценки на предыдущем шаге, а ее зависимость от новых данных наблюдения целиком определяется видом логарифма условной плотности веро­ятности .

По форме соотношение (7.5.24) очень похоже на (7.5.8), реализую­щее итеративный способ вычисления оценки максимального правдоподо­бия по методу Ньютона. Однако на самом деле они существенно отли­чаются друг от друга. В (7.5.8) поправка к предыдущему значению оцен­ки определяется величиной градиента логарифма всей функции правдо­подобия, который всегда зависит от всех имеющихся данных наблюде­ния , что требует запоминания всей этой совокупности. В соответствии с (7.5.24) поправка к определяется величиной гра­диента , который благодаря свойствам условной плотности вероятности фактически зависит только от тех значений (), которые находятся в сильной статистической связи с х n. Это различие является следствием специального выбора предыдущего приближения как оценки максимального правдоподобия, найденной по уменьшенной на одно значение совокупности данных наблюдения , и особенно ярко проявляется при независимых значениях (). В этом последнем случае

благодаря чему зависит только от и х n, а градиент - только от предыдущего значения оценки и вновь полученных на п- мшаге данных наблюдения . Поэтому при незави­симых значениях для формирования вектора не требуется запо­минать с предыдущего шага никакой иной информации, кроме значения оценки .

Аналогично, в случае марковской последовательности данных на­блюдения, то есть при

вектор зависит только от , текущего и одного предыдущего значения .В этом случае для вычисления требуется запомнить с предыдущего шага, помимо значения , еще только значение , но не всю совокупность данных наблюдения, как в ите­ративной процедуре. В общем случае для вычисления может потребоваться запоминание большего числа предыдущих значений (), однако из-за необходимости учета только тех значе­ний , которые статистически зависимы с , это число практически всегда меньше полного объема совокупности данных наблюдения . Так, если вектор описывает временную последователь­ность, то количество подлежащих запоминанию членов этой последова­тельности определяется временем ее корреляции, а относительная их доля убывает обратно пропорционально n, как и в случае независимых значений .

Рассмотрим теперь структуру весовой матрицы , входящей в ре­куррентное соотношение (7.5.24). Согласно определению (7.5.23), из-за наличия слагаемого она, вообще говоря, зависит от всех значений даже при независимых значениях , что ли­шает рекуррентное соотношение (7.5.24) преимуществ, связанных с воз­можным сокращением количества запоминаемых с предыдущего шага данных. Существует несколько способов приближенного вычисления ма­трицы , которые устраняют этот недостаток.

Первый из них основан на более последовательном использовании основного предположения о малом различии двух очередных значений оценки и , которое является основой для получения рекур­рентного соотношения (7.5.24). Это позволяет получить аналогичное ре­куррентное соотношение для весовой матрицы .Действительно, используя малость из (7.5.23), имеем

(7.5.25)

Введя обозначение

, (7.5.26)

из (7.5.24) и (7.5.25) получим систему рекуррентных соотношений для вектора и весовой матрицы

(7.5.27)

Эта система совместно с начальными значениями и полностью определяет значение оценки на любом шаге, требуя на каждом из них вычисления только градиента и матрицы вторых производных от логарифма условной плотности вероятности для текущего наблюдаемого значения . Начальные значе­ния выбираются с учетом имеющихся априорных данных о возможных значениях и диапазоне изменения параметров , а при полном отсутст­вии этих данных принимаются нулевыми (, ).

При независимых значениях система рекуррентных соотношений (7.5.27), очевидно, описывает многомерный (размерности ) марковский случайный процесс, компонента которого сходит­ся к истинному значению параметра , а компонента сходится к ин­формационной матрице Фишера (7.3.8), где - истинное значение оцениваемого параметра, и неограниченно увеличивается с ростом п. Аналогичные свойства сходимости система (7.5.27) имеет и при более общихусловиях, если последовательность явля­ется эргодической.

Второй из упомянутых способов основан на замене матрицы вторых производных от логарифма функции правдоподобия ее матема­тическим ожиданием - информационной матрицей Фишера, которая с учетом (7.5.16) может быть записана в виде:

(7.5.28)

где аналогично (7.5.26)

. (7.5.29)

Заменяя в (7.5.24) матрицу матрицей , получаем ре­куррентное соотношение

(7.5.30)

для приближенного вычисления оценок максимального правдоподобия, предложенное Сакрисоном (в оригинале для независимых одина­ково распределенных , когда и . Это рекуррентное соотношение проще системы (7.5.27), поскольку оптимальная весовая матрица заменена ее мате­матическим ожиданием, и для ее нахождения не требуются имеющиеся данные наблюдения, кроме тех, которые сконцентрированы в значении оценки . В то же время очевидно, что подобная замена означает необходимость выполнения дополнительного по сравнению с (7.5.27) требования близости матрицы вторых производных к своему математи­ческому ожиданию.

Если плотность распределения вероятности и матри­ца меняются от шага к шагу, прямое нахождение на каждом шаге может потребовать слишком большого числа вычисле­ний. При этом за счет дополнительного уменьшения точности ре­зультатов, определяемого неравенством нулю малых разностей , можно перейти к рекуррентному вычислению приближен­ного значения матрицы . Возвращаясь к прежнему обозначе­нию для этого приближенного значения, получаем еще одну систему рекуррентных соотношений

(7.5.31)

где

(7.5.32)

- математическое ожидание матрицы (информационная матри­ца Фишера для одного наблюдения ), взятое в точке . Эта система отличается от (7.5.27) тем, что во втором из рекуррентных соот­ношений (7.5.31) не участвуют непосредственно данные наблюдения .


Любая из рассмотренных выше систем рекуррентных соотношений является совершенно точной, если функция квадратично зависит от , и дополнительно матрица вторых производных не зависит от . Фактически это соответствует случаю независимых нормально рас­пределенных (не обязательно одинаково) значений с неизвестным математическим ожиданием , которое и представляет собой оценивае­мый параметр.

Система рекуррентных соотношений (7.5.24) дает точное решение уравнения максимального правдоподобия в гораздо более широких условиях при единственном требовании, чтобы функция квадра­тично зависела от . При этом зависимость от произвольна, что соответствует широкому классу распределений вероятности совокуп­ности как с независимыми, так и с зависимыми значениями.

Наряду с рассмотренными общими способами существует еще ряд методов выбора матрицы весовых коэффициентов в рекуррентном соотношении (7.5.24), приспособленных к тем или иным конкретным ограничениям. Простейшим из них является выбор в виде диагональной матрицы, так что , (I - единичная матрица), где - убывающая последовательность чис­ловых коэффициентов, выбираемая независимо от свойств функции правдоподобия так же, как в процедуре стохастической аппроксимации Робинса - Монро, которая будет рассмотрена в следующих главах.

Стоит отметить, что любые итерационные или рекуррентные про­цедуры нахождения оценок максимального правдоподобия в общем случае являются приближенными. Поэтому, вообще говоря, для оценок, получающихся в результате применения этих процедур, состоятельность, асимптотическую эффект


Поделиться с друзьями:

Биохимия спиртового брожения: Основу технологии получения пива составляет спиртовое брожение, - при котором сахар превращается...

Индивидуальные очистные сооружения: К классу индивидуальных очистных сооружений относят сооружения, пропускная способность которых...

Типы сооружений для обработки осадков: Септиками называются сооружения, в которых одновременно происходят осветление сточной жидкости...

Автоматическое растормаживание колес: Тормозные устройства колес предназначены для уменьше­ния длины пробега и улучшения маневрирования ВС при...



© cyberpedia.su 2017-2024 - Не является автором материалов. Исключительное право сохранено за автором текста.
Если вы не хотите, чтобы данный материал был у нас на сайте, перейдите по ссылке: Нарушение авторских прав. Мы поможем в написании вашей работы!

0.079 с.