Обратные задачи: теория и практика


Презентация изнутри:

Слайд 0

Обратные задачи: теория и практика Лекция 4. Задача минимизации при нелинейной регрессии. Новосибирский Государственный Университет Физический факультет Кафедра биомедицинской физики к.ф.-м.н. Юркин М.А. This work is licensed under the Creative Commons Attribution 3.0 Unported License.


Слайд 1

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 2 План лекции Наличие многих локальных минимумов в общем случае. Алгоритмы поиска глобального минимума: Левенберга-Марквардта, мультистарта, DiRect… Классификация алгоритмов по использованию ими производной от целевой функции. Необходимость исследования целевой функции для конкретной задачи. Проверка применимости используемого алгоритма. Разделяемые параметры


Слайд 2

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 3 Общая постановка задачи Если выполнено предположение о нормальности и независимости погрешностей, то всё определяется «суммой квадратов» Зависимость от ? очень простая, и все особенности (и вся нужная информация) содержатся в зависимости S от ?, которую обычно тяжело описать. Задача состоит в нахождении (глобального) минимума S(?), т.е. оценки максимального правдоподобия , оценки ?, а также доверительных интервалов на эти величины и значения модельной функции.


Слайд 3

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 4 Общая постановка задачи При некоторых разновидностях регрессии, минимизируется функции другой структуры, например: Поэтому мы рассмотрим как общие методы минимизации, так и использующие структуру S(?) в виде суммы квадратов.


Слайд 4

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 5 Квадратичная функция Простейшая функция, имеющая минимум, это квадратичная: y ? y0 ? bTx ? xTGx/2, G – положительно определённая матрица. В любой точке градиент и гессиан равны: Определив их в любой точке можно точно найти положение минимума x0 ? ?G?1x ? x ? H?1g Линейная регрессия сводится к такой функции Многие методы используют квадратичное приближение функции (линейное приближение модели)


Слайд 5

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 6 Компоненты итерации Направление движения d Наискорейшего спуска (против градиента): ?g Спуска: ?Rg, R – положительно определена Направление Ньютона (из квадратичного приближения): ?H?1g Величина шага Поиск в заданном направлении (линейный поиск), (приблизительно) минимизируя y(?) ? y(x ? ? d) Из квадратичного приближения


Слайд 6

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 7 Метод наискорейшего спуска Движение против градиента (зелёная линия) сильно неоптимально, когда линии (эллипсы) постоянного уровня сильно вытянуты. Поэтому используются модификации, например, метод сопряжённых градиентов (красная линия) или метод Ньютона (сходится за одну итерацию).


Слайд 7

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 8 Алгоритмы локальной минимизации Общие методы Не использующие производные Метод Нельдера-Мида (симплекса, амёбы) Первого порядка Метод сопряжённых градиентов Квазиньютоновские методы Второго порядка Метод Ньютона Модификации метода Ньютона Численное вычисление производных


Слайд 8

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 9 Метод Ньютона и модификации Оригинальный Модификации ?: пробуем 1 и дальше уменьшаем (квадратичная или кубическая интерполяция) Преобразование H, чтобы положительна определена спектральный анализ (обращение знака отрицательных собственных значений) добавление положительно определённой матрицы Метод доверенной области Современные реализации – надёжные и быстросходящиеся методы


Слайд 9

Метод доверенной области Минимизируем квадратичную функцию внутри области, размер которой (?n) увеличивается итерационно Фиксируем размер шага, оптимизируем направление Предполагаем, что минимум достигается при ||p?|| = ?n, и используем множитель Лагранжа (?) ? – параметр регуляризации. Упрощённые версии контролируют его вместо ?n (аналогично методу Левенберга-Марквардта) Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 10


Слайд 10

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 11 Квазиньютоновские методы Не вычисляет вторые производные. Строит приближение гессиана H по ходу итераций и тут же использует (например, Broyden–Fletcher–Goldfarb–Shanno). В «квазиньютоновском» направлении используется линейный поиск. Для квадратичной функции точный гессиан получается через p ? 1 итерацию. Рекомендуется, когда вторые производные недоступны или «дороги» для вычисления.


Слайд 11

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 12 Метод сопряжённых градиентов Направления поиска (примерно) ортогональны друг другу. Для квадратичной функции гарантирована сходимость за p (число параметров) итераций, но примерная сходимость может достигаться намного раньше. Рекомендуется при p ? 100. Используется также при решении больших систем линейных уравнений.


Слайд 12

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 13 Метод Нельдера-Мида Начинает с симплекса из p ? 1 точек. Точка с максимальным f заменяется на симметричную относительно среднего остальных точек. Если точка удачная (минимальная f), то пробуем больший шаг. Если совсем неудачная, то пробуем меньший шаг. В крайнем случае, сжимаем весь симплекс относительно лучшей точки. При вырождении симплекса, алгоритм перезапускается. Работает для негладких функций.


Слайд 13

Пример метода Нельдера-Мида Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 14


Слайд 14

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 15 Глобальная оптимизация Метод мультистарта. Обход локальных минимумов: Произвольные прыжки + динамика по времени Методы имитации отжига и квантового отжига Метод стохастического туннелирования Спуск с небольшими подъёмами Метод Левенберга-Марквардта Многоточечные методы Генетические, эволюционные и т.п. Исследование всего пространства (DiRect). В общем случае нет гарантии, но уверенность увеличивается со временем вычисления.


Слайд 15

Метод имитации отжига На каждом шаге переходим из x в одно из возможных соседних «состояний» x? с вероятностью P(y(x),y(x?),T) (T – текущая «температура» системы) Например: T уменьшается от ? до 0 в соответствии с расписанием отжига. Чем медленнее, тем ближе к 1 вероятность нахождения глобального минимума. Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 16


Слайд 16

Генетический алгоритм На каждом шаге работаем с «популяцией» {x1,…,xn} На основе значений y выбираем (стохастически) часть популяции (k < n) Из этой части выбираем случайно «родителей» (?2), которые производят «ребёнка» x? = f (xi,xj,…), повторяем n раз Каждый новый элемент подвергается мутации x? = x? + ? Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 17


Слайд 17

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 18 Метод DiRect Новое разделение выбирается с учётом значения функции и размера текущего разбиения. Очень много вычислений, но примерно прописывает всю поверхность целевой функции. Рекурсивно делит пространство параметров, начиная с некоторого гиперкуба.


Слайд 18

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 19 Алгоритмы локальной минимизации Использующие структуру S(?) в виде суммы квадратов Не использующие производные В основном, численно приближающие производные Первого порядка Метод Гаусса-Ньютона и модификации Метод Левенберга-Марквардта


Слайд 19

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 20 Метод Гаусса-Ньютона Гессиан может быть примерно вычислен, используя только Якобиан модельной функции. z – текущая невязка В оригинале матрицей A полностью пренебрегают (проблемы вдали от минимума) d ? (JTJ)?1JTz = J+z Модификации составляют приближение для A в процессе итераций аналогично квазиньютоновскому методу и выбирают оптимальный шаг в ньютоновском направлении.


Слайд 20

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 21 Метод Левенберга-Марквардта Наиболее часто используемый метод для нелинейной регрессии. Вместо d ? (JTJ)?1JTz, d ? (JTJ ? ?D)?1JTz, D – диагональная положительная матрица. Помимо прочего решается проблема плохой обусловленности. ? динамически изменяется: уменьшается в 10 раз при медленной сходимости, и увеличивается в 10 раз при попадании в (локальный минимум) Гибрид методов Гаусса-Ньютона и наискорейшего спуска.


Слайд 21

Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 22 Разделяемые параметры Частично-линейная модель ? ? (?,?): y(?,?) ? X(?)? + v(?) Например: y = a + b sin(cx) При фиксированном ?, линейная регрессия: ? ? b(?). Задача сводится к минимизации M(?) ? S(b(?),?). Два подхода: Построение метода Гаусса-Ньютона для минимизации M(?), используя выражение якобиана через X(?) Упрощение алгоритма общей регрессии используя частичную линейность модели (двухшаговый алгоритм) Если матрица X(?) имеет неполный ранг, то используется псевдообратная матрица при линейной регрессии


Слайд 22

Псевдообратная матрица Определение A+: AA+A = A+, A+AA+ = A, (AA+)T = AA+, (A+A)T = A+A Свойства: Если A обратима, то A+ = A?1 Если ATA обратима, то A+ = (ATA)?1AT Всегда В общем случае вычисляется через SVD Проекторы PA = AA+ на imA, QA = I ? PA перпендикулярно imA P?A = A+A на imAT, Q?A = I ? P?A перпендикулярно imAT Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 23


Слайд 23

Производная от PA и A+ Производная P по параметру (P?) Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 24


Слайд 24

Разделяемые параметры Формулы для разделяемых параметров Полное вычисление H дают поправки из первых производных, но ускорение сходимости несущественное Обратные задачи. Лекция 4: Минимизация в нелинейной регрессии. 25


×

HTML:





Ссылка: