240 likes | 569 Views
ИНФОРМАЦИЯ. Презентация к урокам №1,2 в 10 классе. Информация ( informatio ) – разъяснение, осведомление, изложение (бытовое).
E N D
ИНФОРМАЦИЯ Презентация к урокам №1,2 в 10 классе
Информация (informatio) – разъяснение, осведомление, изложение (бытовое) Информация (из теории информатики) – это те сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знания. Информация – отражение реального мира, выражаемого в виде сигналов и знаков.
Свойства информации Информацию можно: Свойства (качественные) • Передавать • Получать • Преобразовывать • Сохранять • Использовать • Измерять • Оценивать • Распространять • Исследовать и т.д. • Достоверность • Доступность • Полнота • Актуальность • Полезность • Понятность • Адекватность (уровень соответствия образа, информационного объекта, создаваемого с помощью полученной информации, реальному объекту)
ЭНТРОПИЯ • Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Введем величину измеряющую неопределенность H(энтропию).Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию.
Измерение информации Минимальная единица измерения в 1 бит уменьшает неопределенность знания в 2 раза • Неопределенность знания о результате некоторого события равна количеству возможных результатов события. • Неопределенность знания о состоянии какого – либо объекта равна количеству различных состояний объекта.
Подходы к определению количества информации. Формулы Хартли и Шеннона. • Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.
Формула Хартли Для равновероятных событий верна формула N=2i , где N -количество вероятно возможных результатов события, а i (бит)- количество информации, содержащееся в сообщении о том, что произошло одно из N равновероятных событий. Можно воспользоваться формулой i=log2N.
Примеры Задача 1 Решение • В корзине 16 шаров разного цвета. Сколько информации несет сообщение о том, что из корзины достали красный шар? • Результат вытаскивания из корзины любого из 16 шаров – событие равновероятное. Поэтому для ответа на вопрос задачи применима формула N=2i , где N = 16, т.е. 2i = 16 =>i =4 бита.
Примеры Задача 2 Решение • При угадывании целого числа в диапазоне от 1 до N получено 6 битов информации. Укажите диапазон. • i =6 битов. • N=2i => N =26, т.е. N=64. • Диапазон [1,64].
Примеры Задача 3 Решение • Какое минимальное количество вопросов надо задать, чтобы определить загаданное число из заданного набора 32 возможных чисел? • N=2i или i=log2N • где N = 32, • т.е. i= 5 => 5 битов или 5 вопросов.
Примеры Задача 4 Решение • Кодовый замок сейфа должен допускать не менее 15000 уникальных комбинаций. Сколько двухпозиционных переключателей необходимо включить в его конструкцию? • 15000=2i i=log215000 получится дробное число • ≈ 13,878, • ближайшая степень числа 2 к 15000 есть число 16384, т.е. 214 , • т.о. i= 14 => в конструкцию нужно включить не менее 14 двухпозиционных переключателей.
Примеры Задача 5 Решение • Какое количество информации несет сообщение «Встреча назначена на 29 сентября»? • Месяц встречи один из 12 месяцев года: N1=12, сообщение о выборе месяца содержит i1 битов информации. • В месяце 30 дней: N2=30, сообщение о выборе дня содержит i2 битов. • Все сообщение содержит i=i1+i2 =log2N1+log2N2 = log212+log230≈8,4918 ≈ 9 битов информации.
Решите задачи Преподаватель договорился заниматься с учеником раз в неделю, причем день каждую неделю мог быть разный. Было составлено расписание на 20 недель и записано в некоторое электронное устройство, которое напоминало о занятиях. Оцените информационный объем этого расписания в байтах. День недели (из 7 возможных) 3 бита, 20 недель, 3 бита*20 недель =60 бит=7,5 байт. Ответ 8 байт.
Решите задачи (продолжение) Если к этой задаче добавить фразу «Информация о дне занятия записывалась минимально возможным количеством байтов», задача решалась бы по другому. 3 бита надо для кодирования дня недели, но записать это можно как 1 байт, следовательно 20 байт.
Решите задачи Какое сообщение содержит большее количество информации? a) Монета упала «решкой» вверх b) В библиотеке книга нашлась в 5-м шкафу из восьми c) Вася получил за экзамен 3 балла (единицы не ставятся) по 5-балльной системе d) Из колоды карт (32 шт.) выпала 7 пик a ) N = 2, I =1 b ) N = 8, I =3 c ) N = 4, I = 2 d) N= 32, I = 5.
Решите задачи • Словарный запас некоторого языка составляет 256 слов, каждое из которых состоит • точно из 4 букв. Сколько букв в алфавите языка? • a) 16 • b) 256 • c) 4 • d) 8 Мощность алфавита N – количество букв в алфавите. Максимальное количество букв в слове, записанном с помощью этого алфавита m. Максимальное количество слов L=Nm. 256=N4, следовательно N=4.
Измерение информации. Неравновероятные события. Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины. А если это магазин для женщин?
Измерение информации. Неравновероятные события. Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Формула Шеннона: I= — ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN), где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений. Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли.
Измерение информации. Неравновероятные события. Вероятность события p и количество информации i в сообщении о нем связаны формулой 1/p=2i илиi=log2(1/p) = - log2p
Примеры Задача Решение • В коробке 8 красных, 12 белых и 12 синих платков. Сколько информации несет сообщение о том, что достали красный платок? Белый? • Пусть pk – вероятность того, что из коробки достали красный платок. Всего платков 32, значит pk=8/32=1/4. Это доля красных платков в общем числе платков. Количество информации в сообщении ik= -log2pk= - log21/4= log24=2 (бит).
Задача РЕШЕНИЕ • В коробе грибника лежат грибы: белые, подосиновики и мухоморы. Всего 32 гриба. Сообщение о том, что вынули мухомор, несет 4 бита информации. Мухоморов в 3 раза меньше, чем белых. Сколько грибов каждого типа? • a) белых — 6, подосиновиков — 24, мухоморов — 2 • b) белых — 12, подосиновиков — 16, мухоморов — 4 • c) белых — 3, подосиновиков — 28, мухоморов — 1 • d) белых — 9, подосиновиков — 20, мухоморов — 3 • Формула 2i =1/P. • Мухомор – i=4 бит (по усл) • P вероятность, что мухомор • 24 =1/P, P=1/16 • P=X/32 => X=2 количество мухоморов • Белых 6 • Подосиновиков 24