'

НЕЙРОСЕМАНТИЧЕСКАЯ ФОРМА ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИ

Понравилась презентация – покажи это...





Слайд 0

1 Бодякин В.И. Институт проблем управления РАН им. В.А. Трапезникова, Москва E-mail: body@ipu.ru , http://www.informograd.narod.ru , служ.тел.:334-92-39 НЕЙРОСЕМАНТИЧЕСКАЯ ФОРМА ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИ


Слайд 1

2 Комплекс: "Предметная область ? Информационный канал ? Информационная система"


Слайд 2

Предметная область (ПО) Любую физическую ПО можно рассматривать как некоторую дискретную пространственно-временную область с взаимодействующими объектами (ai, aj,). При попадании нескольких объектов, в одну и ту же ячейку (область взаимодействия), происходит процесс их взаимодействия.


Слайд 3

4 Процесс взаимодействия объектов осуществляется в течение нескольких тактов времени t2?t1. Результат взаимодействия объектов выражается в изменении величины одного или нескольких параметров W, характеризующих их взаимодействие. Любой W(t) может быть преобразован в текстовую форму. многомерный физический процесс <-> текстовая форма


Слайд 4

5 Энергетика физического процесса ? это некоторый инвариант, характеризующий потенциальную глубину причинно-следственного распространения данного физического процесса Предположим, что скорости распространения разнообразных физических процессов различны. Мы будем рассматривать только такие ПО, в которых существуют малоэнергетические сопутствующие процессы с большими скоростями распространения, относительно основного физического процесса.


Слайд 5

6 Будем предполагать, что в любой ПО выполняются: - принцип причинности (инвариантность во времени и в пространстве), т.е. если si ? sj, то процесс si всегда вызывает sj; - принцип глобальной дискретности (гладкости) процессов взаимодействия, т.е. если si (<zzjbaabj>) ~ sk (<zzjbab>), и si ? sj, то и, скорее всего, sk ? sj ; - принцип субъектности, т.е. каждый процесс ПО (si) имеет оценку полезности для ИС.


Слайд 6

7 При взаимодействии объектов (например, {ai*aj}), в соответствии с F(ПО), порождается ЭСЕ - элементарная семантическая единица (s{ai*aj} = <cade…b>), которая однозначно порождается процессом взаимодействия этих объектов. Все множество взаимодействий в данной ПО, представляет собой семантическое пространство, как совокупность ЭСЕ. В качестве примеров ЭСЕ различных ПО можно привести: взаимодействие элементарных частиц – <ababcw>; <Привет Петров, как дела? Нормально!> – взаимодействие объектов макроуровневых ПО; образование двойной звезды из двух астрообъектов – <zzjbaabj> (на гигауровне). ЭСЕ, порождаемые в ПО, суперпозиционно "сливаются" в непрерывный информационный поток.


Слайд 7

8 Информационный канал (ИК). В ИК происходит процесс формирования информационного ресурса и его транспортировка к ИС. Частота взаимодействия объектов в ПО определяет плотность информационного потока в ИК.


Слайд 8

9 В рамках рассматриваемого комплекса: ПО ? ИК ? ИС, задача ИС заключается в: 1. Воспринимать текстовую форму 2. Хранить информацию 3. Преобразовывать (качественно) информацию 4. Оценивать информацию 5. Выдавать информацию (текстовую форму)


Слайд 9

10 Демонстрационный пример МАКРИСРИСМАКДУБЛЕН ПО ДУБ ЛЕН РИС МАК ИС ____ "Генетич . программа" Энергетика каждого прогнозируемого символа равна 1Е+, Время обработки символа ? один такт, Энергетические затраты на обработку одного образа в ИС равна 1Е-. Необходимо построить словарь образов, полностью покрывающий ТФ. Каждые 12 тактов все образы потребляют на самообеспечение по 0,5Е- aj ai ak


Слайд 10

11 Результаты эксперимента Первая структуризация словаря ИС Форма словаря: (наибольший размер образа один символ): <М><А><К><Р><И><С><Л><Е><Н><Д><У><Б>, R(ИС)=12R*(0,5Е-/R) = 6E-, прогнозирование (Т) = 0Т(т.к. у образа только один символ), затраты энергии на распознавание = 12E- контролирование потенциальной энергии ТФ = 0E+. Итог: для односимвольного словаря = 18E- .


Слайд 11

12 Вторая структуризация словаря ИС а) Минимальная форма словаря: <МА><К><РИ><С><ЛЕ><Н><ДУ><Б>: R(ИС)=8R =4Е-, прогнозирование = 0,5Т (на образ), затраты энергии на распознавание = 8E-, контролирование потенциальной энергии ТФ = 4E+. Итог а) 4Е- + (0,5Т * 8(образов на ТФ=12) = 4E+) + 8E- = 8E- . б) Максимальная форма (без пересечения): <МА><КЛ><КР><КД><КМ> <ЛЕ>…<БД>: R(ИС)= 20R=10Е-, прогнозирование = 0,2Т (на образ), затраты энергии на распознавание = 20E-, контролирование потенциальной энергии ТФ = 4E+. Итог б) 10Е- + (0,2Т * 20(образов на ТФ=12) = 4E+) + 20E- = 26E- . Итоговый лучший эволюционный потенциал = 8E- .


Слайд 12

13 Третья структуризация словаря (наибольший размер образа в три символа). а) Минимальная форма словаря: <МАК><РИС><ЛЕН><ДУБ>: R(ИС)=4R =2Е-, прогнозирование = 2Т (на образ), затраты энергии на распознавание = 4E-, контролирование потенциальной энергии ТФ = 8E+. Итог а) 2Е- + (2Т * 4(образов на ТФ=12) = 8E+) + 4E- = 2E+. б) Максимальная форма (без дублирования, т.е. без полного пересечения): <АКР><ИСР><ИСМ><АКД> <УБЛ><ЕНД> … <АКМ>: R(ИС)= 36R=18Е-, прогнозирование (Т) = 0Т (на образ), затраты энергии на распознавание = 36E-, контролирование потенциальной энергии ТФ = 0E+. Итог б) = 54E- . Лучший итоговый эволюционный потенциал = 2E+ , 54E- ? 2E+(!!).


Слайд 13

14 Четвертая структуризация словаря (наибольший размер образа в четыре символа) а) Минимальная форма словаря: <МАК><РИС><ЛЕН><ДУБ>: R(ИС)=4R =2Е-, прогнозирование = 2Т (на образ), затраты энергии на распознавание = 4E-, контролирование потенциальной энергии ТФ = 8E+. Итог а) 2Е- + (2Т * 4(образов на ТФ=12) = 8E+) + 4E- = 2E+. б) Максимальная форма (без дублирования): <АКРИ><ИСРИ><ИСМА> <АКДУ><УБЛЕ><ЕНДУ> … <АКМА>: R(ИС)= 48R=24Е-, прогнозирование (Т) = 0Т (на образ), затраты энергии на распознавание = 48E-, контролирование потенциальной энергии ТФ = 0E+. Итог б) = 96E- . Лучший итоговый эволюционный потенциал = 2E+ , 96E- ? 2E+


Слайд 14

15 Пятая и другие структуризации словаря Лучший итоговый эволюционный потенциал 2E+ , 204E- ? 2E+ Шестая структуризация словаря, седьмая … и т.д. ? 2E+ !!! Теоретический анализ результатов эксперимента показывает, что эволюционный потенциал ИС обратно пропорционален размеру словаря, Размеры минимальных и максимальных словарей соотносятся как: o(N) и o(N3) !!! где: N – максимальный размер образа словаря


Слайд 15

16 Автоструктуризация информации в ИС МАКРИСРИСМАКДУБЛЕН ? t01 t02 t03 МАКРИС ЛЕН ДУБ ИС АКРИСРИСМАКДУБЛЕНД … АКМ N РИС ДУБ МАКЛЕН N=4 N2+ [L/?] o(N3) >> o(N) !!! Минимальный словарь ИС -> Образы ИС = процессам ПО ИНФОРМАЦИЯ ПО – это есть образы ИС N2(N-1)+N=36


Слайд 16

17 Отображение информационного ресурса тремя классами ИС Автомат "животн." ИС-человек БШ ПС "Телесериал" Реальный bsejgr… abcabc... Mather… При TИС = const (t) RИС TИС t линейный; логарифмический; const; f = (RИС (t)) : ИС


Слайд 17

18 Решением проблемы автоструктуризации стало расширение понятия формального нейрона (МакКаллока-Питтса от 1943г.), вводом в него относительности времени активации входов, что позволило получить нейроподобный N-элемент. U(t)= Fi (U(X,t)), Fi (t) = FИС(U(t-1))


Слайд 18

19 Объединив N-элементы в потенциальный многодольный иерархический граф, удалось получить структуру аналогичную естественно-языковым.


Слайд 19

20 Структурное описание НСС можно представить в виде многодольного графа: Алгоритм обратного преобразования НСС в текстовую форму осуществляется уже за меньшее число операций и идет "сверху-вниз". 01100101011011011010001101101001 ?? Текстовая форма Форма НСС Алгоритм А1


Слайд 20

21 Первый слой (доля графа) N-элементов – терминальный, фактически отображает алфавит А ЭСЕ, второй слой – "псевдослоги" и строится на пространственно-временных ссылках на предыдущий (терминальный) слой - информационное содержание N?элемента, слой "псевдослов" – ссылается на "псевдослоги" и т.д., до самого верхнего N?элемента, отображающего в себе через связи всю ПО.


Слайд 21

Автоструктуризация RИС = f(число N-элементов, число связей)в битах 1/P (компрессия) = --------------------------------------------------------- ? 0 при t ? ? TФИС = объем текстовой информации в ИС в битах или ?RИС / ?TФИС ? 0 и ?RИС ? const, при t ? M при t ? ? Пример: <ДОМЗЕБРЫСКИТНАДОМДОМВНАДОМВСКИТВНАСКИТВВЗЕБРЫНАВНА>, правильно выделяются все ЭСЕ: <ЗЕБРЫ> <СКИТ> <ДОМ> <НА> <В>. сдвиг алфавита А в кодах ASCII <ЕПНИЖВСЬТЛЙУОБЕПНЕПНГОБЕПНГТЛЙУГОБТЛЙУГЖВСЬОБГОБ> на +1 <?IGB@<KVLECMH;?IG?IG=H;?IG=LECM =H;LECM==B<KVH;=H;{> на -133.


Слайд 22

23 Структуру памяти ИС, в которой выполняется свойство гомоморфного отображения ЭСЕ ПО и их структуры в образы ИС и обратно, будем называть нейросемантической структурой (НСС) N?элемент (образ ИС)  ?  ЭСЕ (ПО) Назовем процесс автоматического выделения семантических единиц в НСС – автоструктуризацией. НСС – это готовая структура данных (процессов и объектов) произвольной ПО для любой ИС. Понятно, что ее автоматическое формирование открывает широкие горизонты для инженерии ИС.


Слайд 23

24 Информационный ресурс в ИС можно представить как: - "сигнал" или текстовая форма ? простая суперпозиция ЭСЕ ПО; - "информация" ? сигнал, структурированный на иерархию ЭСЕ ПО; - "знание" – иерархия НСС в ИС. "линейный – сигнал", "логарифмический – информация” "const - знание". При TИС = const (t), RИС = f (SИС(t)) t RИС (бит) TИС (бит) t RИС TИС t RИС TИС ИС


Слайд 24

25 НСС – это пример 1-го формального преобразования количественной текстовой формы представления информации в качественно новую форму – структуру ЭСЕ Критерии достаточности: а) все пространство состояний; б) если человек может правильно структурировать данный текстовой материал в непривычной, но взаимнооднозначной нотации, в) наличие характерных особенностей динамического процесса при минимизации ресурса RИС


Слайд 25

Следует также отметить, что все технические характеристики ассоциативной памяти на базе НСС: - время доступа, - коэффициент компрессии-сжатия, - надежность хранения информации и др.) имеют тенденцию к улучшению, как в среднем, так и в абсолютных значениях, по мере роста объема вводимой информации из ПО.


Слайд 26

27 Величина компрессии отражает потенциальную интеллектуальность ИС. Псевдофрактальные файлы.


Слайд 27

Адаптивный регулятор №1 на базе НСС.


Слайд 28

29 Запоминая пары <X><Y> и их оценку <E> для любого априорно неизвестного объекта управления, регулятор №1, фактически перебором, заполняет все возможное пространство его состояний (N*M ).


Слайд 29

Адаптивный регулятор №2


Слайд 30

31 Скорость обучения регулятора №2 почти не зависит от размерностей N и M (N – число состояний объекта, M – число состояний возможного управления, в эксперименте для простоты принималось N = M = 7, 15, 17,19, 21), Т.е., пример регулятора №2 демонстрирует возможность практического преодоления "проклятия размерности".


Слайд 31

На базе нейросемантического регулятора №3 формально показано, как на основе вышеописанных физических свойств N-элементов возможно естественное самоформирование R?отношений, представленных в регуляторе №2. Тем самым, подведено теоретическое основание для инженерного построения ИР, т.е.: теоретически решить (закрыть) проблему построения ИИ. Как и вычислительная техника начала развиваться с теоретических моделей "машин Тьюринга и Поста", так и анализ работы нейросемантического регулятора будет способствовать формированию широкого фронта научных работ по разработке ИР. Таким образом, на нейросемантических регуляторах можно продемонстрировать: - №1 – "адаптационность", как возможность адаптироваться в любой ПО; - №2 – "интеллектуальность", как возможность существенного сокращения перебора; - №3 – "разумность", как целенаправленное порождение нового знания. Адаптивный регулятор №3


Слайд 32

33 Текстовая энтропия ? = p(s), при p(s) ? 1 ТЭ(s) ? ? = 1 - (p(s) - 1) / (m-1), при p(s) > 1 0 ? p(s) ? m; p(s)L / m = 1 (условие нормировки) s - некоторое слово длиной в L символов; m - размер потенциального S?словаря в m=AL S?слов информационное пространство в L*m = L*AL символов ТЭL = ТЭ(s)L / m


Слайд 33

34 Относительная текстовая энтропия Таким образом, числовые значения ТЭ и ОТЭ являются эффек-тивными параметрами-индикаторами, которые характеризуют возможность семантического анализа конкретной ПО (например, при поиске сигналов от внеземных цивилизаций). Текстовая энтропия


Слайд 34

35 Прототипы компьютерного интерфейса: “ человек-ИP “


Слайд 35

36 СПАСИБО ЗА ВНИМАНИЕ По всем вопросам Проекта обращаться к Бодякину Владимиру, E-mail: body@ipu.ru www.informograd.narod.ru/ тел. (095)334-92-39, в ИПУ тел 1-346


Слайд 36

Человек и Машина (ИР) Страхи что ИР поработит человечество – типичный пример широко распространившегося шаманизма от киноиндустрии. Для человека более опасен другой человек, т.к. у них одна ниша потребления. Генетически же ИР нацелен на космос – именно там широкое поле для его деятельности. Неограниченное количество любых материальных ресурсов вселенной не дает даже теоретических основ для конфликта между ИР с земным человеком. С точки же зрения сотрудничества, ИР для человека представляется идеальным партнером, т.к. у них одна область производства легко тиражируемого результата. Где в итоге, каждый получает весь конечный продукт – новое знание (пример ИРМИ). Так что, никаких естественных оснований для конфликта между человеком и ИР нет. Сотрудничество же человека с ИР станет мощным стимулом для заключительного экспоненциального этапа научно-технического прогресса нашей цивилизации. Работы над созданием ИР должны проводиться только в рамках нового гуманистического мировоззрения и специализированной международной академической инфраструктуры. Это необходимо, чтобы такой фактор, как ИР не стал "информационной дубиной" в руках какой-либо эгоистической группировки. В качестве такой начальной социально-экономической структуры по разработке ИP предлагается проект "Информоград".


Слайд 37

38 Алгоритм (А1) преобразования текстовой формы в иерархическую структуру словарей (НСС) L = {01100101011011011010001101101001}. Исходный текст 1-й шаг k1=2 l0 01100101011011011010001101101001 Номера цепочек в словаре Последовательность индексов (ссылок) 1 2 3 4 l1 1 2 1 1 1 2 3 1 2 2 4 3 1 2 2 1 + "01"10"11"00" L1


Слайд 38

39 2-й шаг k2=2 l1 1211123122431221 Номера цепочек в словарях 1 2 3 4 5 6 12 11 31 22 43 21 L2 l2 1 2 1 3 4 5 1 6 + "01"10"11"00" L1


Слайд 39

40 3-й шаг k3=2 l2 12134516 Номера цепочек в словарях 1 2 3 4 5 6 12 13 45 16 L3 12 11 31 22 43 21 L2 l3 1 2 3 4 + "01"10"11"00" L1


Слайд 40

41 4-й шаг k4=2 Номера цепочек в словарях l3 1234 1 2 3 4 5 6 12 34 L4 12 13 45 16 L3 12 11 31 22 43 21 L2 l4 1 2 + "01"10"11"00" L1


Слайд 41

42 5-й шаг k5=2 и исходная последовательность символов полностью переходит в НСС. Номера Ссылки словарей 6 1 на предыдущие (слоев) 5 12 словари 4 12 34 и "алфавит" 3 12 13 45 16 2 12 11 31 22 43 21 1 "01"10"11"00" 1 2 3 4 5 6 Номера элементов в словаре


Слайд 42

43 Номера 6 6 Ссылки словарей 5 5 12 на предыдущие (слоев) 4 4 12 34 словари 3 3 12 13 45 16 и "алфавит" 2 2 12 11 31 22 43 21 1 1 12 21 22 11 0 А "0" "1" 1 2 3 4 5 6 Номера элементов в словаре


Слайд 43

44 Структурное описание НСС можно представить в виде многодольного графа: Алгоритм обратного преобразования НСС в текстовую форму осуществляется уже за меньшее число операций и идет "сверху-вниз".


Слайд 44

45 Изоморфность структур процессов в ПО и НСС Теорема: максимальное значение компрессии достижимо только при изоморфном отображении структуры процессов ПО в структуре образов НСС


×

HTML:





Ссылка: