Презентация - "Презентация к уроку "Измерение информации""

- Презентации / Другие презентации
- 0
- 01.12.25
Просмотреть и скачать презентацию на тему "Презентация к уроку "Измерение информации""
Сайт klass-uchebnik.com предлагает качественные учебные материалы для школьников, родителей и учителей. Здесь можно бесплатно читать и скачивать современные учебники, рабочие тетради, а также наглядные презентации по всем предметам школьной программы. Материалы распределены по классам и темам, что делает поиск максимально удобным. Каждое пособие отличается логичной структурой, доступной подачей материала и соответствует действующим образовательным стандартам. Благодаря простому языку, наглядным схемам и практическим заданиям, обучение становится легче и эффективнее. Учебники подойдут как для ежедневной подготовки к урокам, так и для систематического повторения перед экзаменами.
Особое внимание стоит уделить разделу с презентациями - они становятся отличным визуальным дополнением к теории, помогают лучше понять сложные темы и удерживают внимание учащихся. Такие материалы удобно использовать в классе на интерактивной доске или при самостоятельной подготовке дома. Все размещённые на платформе материалы проверены на актуальность и соответствие учебной программе. Это делает сайт надёжным помощником в образовательном процессе для всех участников: школьников, учителей и родителей. Особенно удобно, что всё доступно онлайн без регистрации и в свободном доступе.
Если вы ищете надежный источник для подготовки к урокам, контрольным и экзаменам - klass-uchebnik.com станет отличным выбором. Здесь вы найдёте всё необходимое, включая "Презентация к уроку "Измерение информации"", чтобы сделать обучение более организованным, интересным и результативным.
Вероятностный подход к измерению количества информации является внутренним, смысловым (или семантическим).
В этом случае имеет значение содержание получаемой (или передаваемой) информации, ее смысл.
За единицу измерения количества информации принят:
1 бит.
При семантическом подходе за 1 бит принято такое количество информации, которую мы получаем тогда, когда происходит одно из двух равновероятных событий или количество информации, которая уменьшает неопределенность наших знаний в два раза.
Рассмотрим поле из 16 клеток…
Предположим, что один из игроков поставил крестик так:
Пока действие не произошло, второй игрок имел ПОЛНОЕ НЕЗНАНИЕ (или полную неопределенность знания) относительно того, куда будет поставлен крестик.
Сколько раз неопределенность знаний второго игрока уменьшилась в два раза?
Он узнал, что первый игрок выбрал часть поля…
Он узнал, что первый игрок выбрал часть из оставшегося поля…
ЭТО РАЗ!
Он узнал, что первый игрок выбрал из двух оставшихся клеток одну…
ЭТО ДВА!
ЭТО ТРИ!
Он узнал, что первый игрок выбрал часть из оставшегося поля…
ЭТО ЧЕТЫРЕ!
Значит, когда один из игроков поставил крестик, второй получил при этом ЧЕТЫРЕ БИТА информации!
Если количество клеток уменьшить до 8, то количество информации, получаемое вторым игроком при постановке крестика в одну из клеток, уменьшится до 3 бит.
А если клеток будет 4, то при постановке крестика будет получено 2 бита информации.
Таким образом, при постановке одним из игроков крестика на поле из 16 клеток второй игрок получит 4 бита информации.
ПРОВЕРЬТЕ!
Если N - число вариантов равновероятностных событий (неопределенность знаний), то
i - количество информации (в битах) в сообщении о том, что произошло одно из N событий, определяется из формулы N=2I.
4=22
8=23
16=24
32=25
Для того, чтобы решать задачи на определение количества информации при семантическом подходе, необходимо знать таблицу степеней числа 2:
Так, если происходит угадывание числа, задуманного в диапазоне от 1 до 128, то при оптимальной стратегии игры (выбор числа в середине диапазона) угадывающему необходимо будет задать 7 вопросов,
так как 128 = 27
Вытаскивание из мешочка одного из 16 шаров (разного цвета) несет 4 бита информации,
так как 16 = 24
поскольку в этом случае выпадение каждого из шаров равновероятно.
Итак, количество информации (I), которое мы получаем тогда происходит одно из N равновероятный событий (или когда неопределенность наших знаний уменьшается в N раз) мы можем вычислить по формуле:
N=2I
Данная формула была предложена в 1928 году американским инженером-связистом Хартли и поэтому носит его имя.
Величину i в информатике называют энтропией.
Понятно, что получить знание, значит, снять неопределенность.
Энтропия – это мера неопределенности знаний.
Существует прямая связь между понятием энтропии в информатике и термодинамическим понятием энтропии, так как информация в термодинамике выступает как мера упорядоченности, тогда как энтропия является мерой беспорядка (хаоса).
Какое минимальное количество информации необходимо получить, чтобы угадать число в диапазоне от 1 до 128?
5 бит
6 бит
7 бит
Какое минимальное количество информации необходимо получить, чтобы угадать число в диапазоне от 1 до 128?
5 бит
6 бит
7 бит
Какое минимальное количество информации необходимо получить, чтобы угадать задуманную букву из заданного набора: А, Е, И, О, У, Ы, Э, Я?
3 бита
4 бита
2 бита
Какое минимальное количество информации необходимо получить, чтобы угадать задуманную букву из заданного набора: А, Е, И, О, У, Ы, Э, Я?
3 бита
4 бита
2 бита
Какое количество информации несет сообщение о том, что вагон находится на одном из 16 путей?
4 бита
5 бит
6 бит
Какое количество информации несет сообщение о том, что вагон находится на одном из 16 путей?
4 бита
5 бит
6 бит
Алфавитный подход к измерению информации позволяет определить количество информации, заключенной в тексте.
Множество символов, используемых при записи текста, называется алфавитом.
Полное количество символов в алфавите называется мощностью алфавита
Информационный вес одного символа алфавита (i) мощностью в N символов, определяется по той же формуле Хартли:
N=2I
Если текст содержит K символов, то информация, содержащаяся во всем тексте, равна, соответственно:
I=K * i (бит)
Так один символ из алфавита мощностью 256 (28) символов несет в тексте 8 бит информации.
Такое количество информации называется 1 байт – это следующая по величине единица измерения количества информации.
1 байт = 8 бит
Более крупные единицы измерения количества информации:
1 килобайт (Кбайт) = 1024 (210) байт
1 мегабайт (Мбайт) = 1024 (210) Кбайт
1 гигабайт (Гбайт) = 1024 (210) Мбайт
Какова мощность алфавита, на котором записано сообщение, содержащее 15 символов, если объем сообщения 105 бит?
64 знака
128 знаков
256 знаков























