'

Моделирование поведения сложных динамических систем

Понравилась презентация – покажи это...





Слайд 0

1 Моделирование поведения сложных динамических систем Докладчик: Юданов А.А. Научный руководитель: Бордаченкова Е.А Москва, 2009


Слайд 1

2 Постановка задачи Цель – создать систему генерации связного текста на естественном языке по динамически поступающей информации из некоторой системы. То есть, универсальный комментатор для определенного класса компьютерных игр: - игроки управляют агентами в игровом мире. - игровой мир – разнородный объем, содержащий агентов и другие предметы.


Слайд 2

3 Структура системы Игра генерирует некоторые события Их надо оценить и прокомментировать переводчик Система генерации текста ИГРА Система комментирования


Слайд 3

4 Структура системы Игра генерирует некоторые события Их надо оценить и прокомментировать Проблема: широкий класс предметных областей вынуждает использовать адаптирующийся к конкретной задаче алгоритм. переводчик Система генерации текста ИГРА Система комментирования


Слайд 4

5 Структура Игра генерирует некоторые события Их надо оценить и прокомментировать Система работы с моделью Модель Решено было строить модель поведения предметной области. переводчик Система генерации текста ИГРА Система комментирования


Слайд 5

6 Что такое модель поведения? Внутреннее поведение скрыто Вход Выход Наблюдаемое поведение


Слайд 6

7 Что такое модель поведения? Внутреннее поведение скрыто Вход модель Выход Выход


Слайд 7

8 Что такое модель поведения? Оценки качества модели Ошибка обучения – Суммированная по обучающей выборке норма невязки модели Ошибка обобщения – Норма невязки модели на каких-либо новых данных Как измеряют качество модели? Основной целью при обучении является уменьшение ошибки обобщения. Точно смоделировать систему невозможно.


Слайд 8

9 Адекватно оценивать настоящее Предсказывать будущее Зачем нужна модель поведения? предсказывать следующий выход системы на основе входа и наблюдаемого поведения системы. выход моделируемой системы = выход модели


Слайд 9

10 Особенности нашей задачи Входные данные системы не должны участвовать как в алгоритмах обучения, так и работы. Обязательна возможность динамического обучения без учителя. Желательно, получать в предсказательном алгоритме распределение вероятностей. Желательно иметь возможность дообучать модель по ходу работы. Чем проще и быстрее работа с моделью – тем лучше.


Слайд 10

11 Особенности нашей задачи Внутреннее поведение скрыто Вход модель Выход Выход ?


Слайд 11

12 Обзор некоторых моделей Нейронные сети Самоорганизующиеся карты Кохонена. Статистические модели Скрытые Марковские модели. Synapse [http://www.peltarion.com/products/synapse/] WEBSOM [http://websom.hut.fi/websom/] TreeAge Pro Healthcare [http://www.treeage.com] HTS [http://hts.sp.nitech.ac.jp/]


Слайд 12

13 Нейронные сети Модель представляет из себя сеть, сплетенную из одинаковых по функциям элементам с помощью синаптических связей. Каждый элемент (нейрон) выполняет одну функцию – обрабатывая определенным образом входные сигналы x1,…,xn генерирует выходной y: y = F(x1,…,xn)


Слайд 13

14 Карты Кохонена Разновидность нейронных сетей. Топология – регулярная решетка. Каждый нейрон содержит вектор весов и свои координаты на решетке. Обучение итерационное, до достижения определенной погрешности Общие сведения


Слайд 14

15 Карты Кохонена Отображение набора входных векторов высокой размерности в карту кластеров меньшей размерности, причем, таким образом что близким кластерам на карте отвечают близкие друг к другу входные вектора в исходном пространстве. Задачи - Наглядное упорядочивание многопараметрической информации. - Группировка близких входных сигналов для другой нейросети.


Слайд 15

16 Карты Кохонена Наглядное упорядочивание многопараметрической информации. - Выявление различий в режимах поведения системы. Задачи - Нахождение взаимосвязей в многопараметрических данных.


Слайд 16

17 Карты Кохонена Карта Кохонена группирует близкие входные сигналы X, а требуемая функция Y=G(X) строится на основе применения обычной нейросети. Входной слой Слой Кохонена Другая нейросеть Задачи


Слайд 17

18 Нейронные сети Моделируемая система – игра. Нейронные сети должны получать вход системы, который недоступен. Значит, простой подстановки НС в задачу не получится Можно рассматривать выход системы как вход для НС, т.е. НС читает предыдущий выход и пытается предсказать следующий. Приложение к нашей задаче


Слайд 18

19 Нейронные сети Внутреннее поведение скрыто Вход Нейросеть Выход Выход ? Вход


Слайд 19

20 Нейронные сети + Даже малая обучающая выборка не дает большой ошибки обобщения Неэффективная реализация на ПК. Сложный процесс проектирования топологии Плюсы и минусы


Слайд 20

21 Скрытые Марковские модели Имеет набор скрытых внутренних состояний (скрытая переменная) x(t) Имеет набор наблюдаемых состояний (наблюдаемая переменная) y(t) x(t) зависит только от x(t-1) y(t) зависит только от x(t) Общие сведения


Слайд 21

22 Скрытые Марковские модели На каждом шаге система может перейти в новое скрытое состояние и как-то поменять значение наблюдаемой переменной (сменить наблюдаемое состояние) Время – дискретное. Общие сведения


Слайд 22

23 Скрытые Марковские модели -Имеется матрица А[NxN] -Имеется матрица В[NxM] Скрытые состояния вероятностей возникновения каждого из наблюдаемых событий на каждом из скрытых состояний. вероятностей переходов между скрытыми состояниями. N M Наблюдаемые состояния Общие сведения


Слайд 23

24 Скрытые Марковские модели Наиболее вероятная скрытая последовательность погоды ['Sunny', 'Rainy', 'Rainy', 'Sunny', 'Sunny'] Вероятность наблюдения при этом - 4% Пусть Аня знает, что Ваня сначала гулял, потом ходил за покупками, потом убирался. ['walk', 'shop', 'clean‘,‘walk’,’walk’] пример


Слайд 24

25 Скрытые Марковские модели Для заданной модели вычислить вероятность появления некоторой наблюдаемой последовательности. 2. Для модели и наблюдаемой последовательности определить наиболее вероятную последовательность скрытых состояний. 3. Для набора наблюдаемых последовательностей требуется скорректировать матрицы переходов некоторой модели, чтобы эти последовательности были наиболее вероятны в ней. Задачи [алгоритм вперёд-назад] [алгоритм Витерби] [алгоритм Баума-Уэлша]


Слайд 25

26 Скрытые Марковские модели Внутреннее поведение скрыто Вход СММ Выход Выход ? Приложение к нашей задаче


Слайд 26

27 Скрытые Марковские модели + Имитирует внутреннюю жизнь моделируемой системы. + Простые итерационные алгоритмы обучения. + Простота и быстрота работы. + Соответствие большинству наших требований + Хорошие результаты применения в схожих задачах Не учитывается время, прошедшее между сменой состояний. Зависимость вероятности перехода лишь от текущего состояний. Плюсы и минусы


Слайд 27

28 Модификации Фильтр Калмана Алгоритм для работы СММ с непрерывными зашумленными наблюдаемыми состояниями. Многоуровневые СММ Строится каскад СММ, где каждый следующий уровень генерирует наблюдаемые последовательности для предыдущего. Иерархические СММ СММ, где каждое состояние может само являться ИСММ Что мы хотим, возможно, применить


Слайд 28

29 End of file Вопросы? Спасибо за внимание!


×

HTML:





Ссылка: