'

ИНФОРМАЦИЯ

Понравилась презентация – покажи это...





Слайд 0

10 класс Учитель Малахова Е.В. ИНФОРМАЦИЯ 2010 год


Слайд 1

Измерение количества информации 20.01.2016 2 Вставьте пропущенные слова: Сообщение называется ……………………………., если в нём содержатся новые и понятные сведения. 1 бит - это количество информации, ………………………... неопределенность знаний в 2 раза. События, не имеющие преимущество друг перед другом, называются …………………………………… .   информативным уменьшающее равновероятностными


Слайд 2

3 Ответьте на вопросы: Какой объем информации содержит сообщение, уменьшающее неопределенность знаний в 8 раз? Чему равна информационная емкость знака генетического алфавита ? В доме 16 этажей. На каждом этаже по несколько квартир. Сообщение о том, что Саша живёт в квартире № 40, содержит 6 бит информации. Сколько квартир на каждом этаже? Найти объем информации, содержащейся в сообщении «Встреча назначена на завтра.» Измерение количества информации 20.01.2016 (Ответ: 3 бита) (Ответ: 2 бита) 64 квартиры, значит на каждом этаже по 4 квартиры 28 байт или 28*8=224 бита


Слайд 3

20.01.2016 4 Измерение количества информации Какое сообщение содержит большее количество информации? Вася получил за контрольную работу оценку 4 (по 5-бальной системе единицы не ставят). 2. По информатике Вася имеет в журнале 3 пятерки, 3 четверки , 3 тройки и 3 двойки. Вася получил оценку «5». За контрольную работу по информатике получено 10 пятерок, 13 четверок, 5 троек и 2 двойки. Вася получил тетрадь с оценкой? (Ответ: 2 бита) (Ответ: 2 бита) ?


Слайд 4

Вероятностный подход к определению количества информации. ИНФОРМАЦИЯ


Слайд 5

20.01.2016 6 Цель урока: сформировать понимание вероятности; научиться находить информационный объем неравновероятностных событий; установить связь между алфавитным и содержательным подходом к определению количества информации. Вероятностный подход


Слайд 6

Вероятностный подход 7 Вероятность события выражается в долях единицы и равна отношению количества повторений данного исхода события к общему числу повторений события: р=K/N, где К – величина, показывающая сколько раз произошло интересующее нас событие, N – общее число возможных исходов какого-то процесса.   20.01.2016 p = 1 p = 0,5 p = 0 событие происходит всегда (нет неопределенности) событие происходит в половине случаев (есть неопределенность) событие никогда не происходит (нет неопределенности)


Слайд 7

Вычисление вероятности 8 Задача. За контрольную работу по информатике получено 10 пятерок, 13 четверок, 5 троек и 2 двойки. Какое количество информации получил Вася при получении тетради с оценкой? Формула: число «нужных» событий общее число событий Решение: 20.01.2016 вероятность «5»: вероятность «4»: вероятность «3»: вероятность «2»: N = К5+К4+К3+К2=10+13+5+2=30 =10/30=0,33 =13/30=0,43 =5/30=0,17 =2/30=0,07 =1- - - =1-0,33-0,43-0,17=0,07


Слайд 8

Вычисление количества информации 20.01.2016 9 Формула: Решение: или 3,836 1,599 1,217 2,556 Логарифмом числа b по основанию a называют такое число x, что ax = b. При этом пишут: x = loga b


Слайд 9

Вероятностный подход 10 Как посчитать количество информации для любого неравновероятностного события? Клод Элвуд Шеннон (1916—2001) американский математик и электротехник, один из создателей математической теории информации и криптографии. 20.01.2016 где I - количество информации; n - количество возможных событий; pi - вероятность i-го события.


Слайд 10

Количество информации о получении любой из 4 оценок: 20.01.2016 11 ? 1,74 бит Вероятностный подход


Слайд 11

20.01.2016 12 Измерение количества информации Какое сообщение содержит большее количество информации? Вася получил за контрольную работу оценку 4 (по 5-бальной системе единицы не ставят). 2. По информатике Вася имеет в журнале 3 пятерки, 3 четверки , 3 тройки и 3 двойки. Вася получил оценку «5». 3. За контрольную работу по информатике получено 8 пятерок, 13 четверок, 6 троек и 2 двойки. Вася получил тетрадь с оценкой? . (Ответ: 2 бита) (Ответ: 2 бита) (Ответ: 1,74 бита)


Слайд 12

20.01.2016 13 Если , следовательно исходы равновероятны, то вероятность каждого исхода – это: формула Хартли (Ральф Хартли американский инженер- связист) - предложена в 1928 г. Вероятностный подход


Слайд 13

Задание для групп 20.01.2016 14 По данному тексту составьте частотный словарь русского языка для букв, входящих в слово ……………………. Рассчитайте информационный объем этого слова по алфавитному и содержательному подходу к определению количества информации. Сделать выводы. Сделайте выводы относительно зависимости информационных весов символов от их частотной характеристики и правила расположения букв на клавиатуре.


Слайд 14

20.01.2016 15 Результаты: I группа: Содержательный подход: Всего символов в тексте : 2266 Алфавитный подход: Мощность алфавита: N=33 I=5,04 бит Информационный объем=5,04*11=55,44 бит Информационный объем=5,22+3,72+4,58+2*3,80+ 6,10+ +2*4,13+3,69+ 1,14+7,24 ? 47,5 бит


Слайд 15

20.01.2016 16 Результаты: Алфавитный подход: Мощность алфавита: N=33 I=5,04 бит Информационный объем=5,04*9=45,36 бит Информационный объем=4,81+3,80+4,75+6,24+7,24+7,34+4,13+ 3,72+4,58=46,6 бит II группа: Содержательный подход: Всего символов в тексте : 2266


Слайд 16

20.01.2016 17 Результаты: Алфавитный подход: Мощность алфавита: N=33 I=5,04 бит Информационный объем=5,04*10=50,4 бит Информационный объем=2*3,55+3,69+6,34+3,79+4,58+4,375+ 3,83+7,64+6,10= 47,4 бит III группа: Содержательный подход: Всего символов в тексте : 2266


Слайд 17

20.01.2016 18 Результаты: Таблица частотности символов русского алфавита


Слайд 18

Выводы: 20.01.2016 19 При алфавитном подходе, считается, что все символы алфавита встречаются в сообщениях, записанных с помощью этого алфавита, одинаково часто. Однако, в действительности символы алфавитов естественных языков в сообщениях появляются с разной частотой. Количество информации в сообщении о некотором событии зависит от вероятности этого события. Чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.


×

HTML:





Ссылка: