Добавить материал и получить бесплатное свидетельство о публикации в СМИ
Эл. №ФС77-60625 от 20.01.2015
Инфоурок / Информатика / Конспекты / Разработка урока "Информация и энтропия"

Разработка урока "Информация и энтропия"



57 вебинаров для учителей на разные темы
ПЕРЕЙТИ к бесплатному просмотру
(заказ свидетельства о просмотре - только до 11 декабря)


  • Информатика

Поделитесь материалом с коллегами:

Методическая разработка урока «Информация и энтропия»

Нефедьева Лариса Михайловна,

учитель информатики МБОУ г. Иркутска

Лицей № 1

Класс: 10 класс физико-математического профиля

Цель урока: создание условий для формирования интеллектуальной компетентности учащихся в информационном взаимодействии с учителем

Тип урока: открытие новых знаний

Технология: системно-деятельностный подход

Оборудование: компьютерный класс, проектор, маркерная доска, раздаточный материал (задачи).


ХОД УРОКА

  1. Мотивация к совершению учебной деятельности

На предыдущих уроках вы познакомились с понятием «информация» в различных областях человеческой деятельности: информатике, кибернетике, технике, в быту. Вы уже знаете, что информацию можно измерять, а также знаете единицы измерения информации.

Назовите единицы измерения информации (учащиеся перечисляют все единицы: бит, байт, килобайт, мегабайт, гигабайт, терабайт).

Сегодня нам надо получить формулу для определения количества информации и вычислить энтропию кристалла.

  1. Актуализация знаний (ответы учащихся на вопросы учителя)

Повторим ранее рассмотренные понятия.

Что мы понимаем под информацией в бытовом смысле, в информатике, кибернетике, технике, биологии?

Учащиеся отвечают на вопросы, в случае затруднения учитель задает наводящие вопросы и примеры, помогая сформулировать понятия.

  1. Коллективная работа по выводу формулы для определения количества информации

В основе нашего мира лежат три состав­ляющие — вещество, энергия и информация.

Можно ли измерить количество вещества и как именно? (Вещество можно взвесить на весах и определить его вес, например, в тоннах, килограммах и граммах. Можно с помощью линейки или рулетки измерить его размеры и вычислить его объем и т.д.).

Можно ли определить количество энергии? (Можно, например, найти количество тепловой энергии в Дж, электроэнергии в кВт/ч, и т.д.)

Информацию также можно измерять и находить ее коли­чество.

Существуют два подхода к измерению информации.

Один из них называется содержательный или вероятностный. Из назва­ния подхода можно сделать вывод, что количество информации зависит от ее содержания.

Сообщение несет больше информации, если в нем содержатся новые и понятные сведения. Такое сообщение называется информативным.

Какой вывод из этого можно сделать? (Количество информации зависит от информативности).

Количество информации в некотором сообщении равно нулю, если оно с точки зрения конкретного человека неинформативно. Количество информации в информативном сообщении больше нуля.

Но информативность сообщения сама по себе не дает точного определе­ния количества информации. По информативности можно судить только о том, много информации или мало.

Рассмотрим понятие информативности с другой стороны. Если некоторое сообщение является информативным, оно пополняет нас знаниями или уменьшает неопределенность наших знаний.

Продолжите, пожалуйста такое высказывание: Сообщение содержит информацию, если оно … (приводит к уменьше­нию неопределенности наших знаний).

Рассмотрим несколько примеров.

Мы бросаем монету и пытаемся угадать, какой стороной она упадет на поверхность.

Сколько результатов может быть? (Возможен один результат из двух: монета окажется в положении «орел» или «решка»).

Каждое из этих двух событий окажется равновероятным, т.е. ни одно из них не имеет преимущества перед другим.

Можем ли мы перед броском сказать, как упадет монета? (Нет, мы точно не знаем, как она упадет).

Можем ли мы это событие предсказать? (Это событие предсказать невозможно).

Значит, перед броском существует неопределенность нашего знания - возможно одно событие из двух. После броска наступает полная определенность знания, т.к. мы получаем зрительное сообщение о положении монеты. Это зрительное сообщение уменьшает неопределен­ность нашего знания в два раза, т.к. из двух равновероятных событий произошло одно.

Сколько может быть результатов (событий), если кидать шестигранный кубик? (Один результат из шести возможных, равновероятных).

Во сколько раз уменьшается неопределенность знаний после броска? (Неопределенность наших знаний уменьшается в шесть раз).

Допустим, что на экзамен приготовлено 32 билета. Чему равно количество событий, которые могут произойти при вытягивании билета? (Количество событий равно 32).

Эти события равновероятны или нет? (События равновероятны.)

Чему равна неопределенность знаний ученика перед тем, как он вытянет билет? (Неопределенность знаний равна 32)

Во сколько раз уменьшится неопределенность знания после того как ученик билет вытянул? (Неопределенность знаний уменьшится в 32 раза).

Зависит ли этот показатель от номера вытянутого билета? (Не зависит, т.к. события равновероятны.)

Какой вывод можно сделать из всех рассмотренных примеров? (Чем больше количество возможных равновероятных событий, тем в большее количество раз уменьшается неопределенность наших знаний).

Каким может быть наименьшее количество информации? Рассмотрим еще раз пример с монетой. Предположим, что у монеты обе стороны «орел». Существует ли неопределенность знаний пред броском в этом случае? (Нет, так как мы заранее знаем, что выпадет в любом случае «орел».)

Получим ли мы новую информацию после броска? (Нет, так как ответ мы уже знали заранее.)

Будет ли информативным сообщение о результате броска? (Нет, так оно не принесло новых знаний.)

Чему равно количество информации в этом случае? (Нулю, т.к. оно неинформативно.)

Какой вывод можно сделать? (Мы не получаем информацию в ситуации, когда происходит одно событие из одного возможного. Количество информации в этом случае равно нулю).

Сколько минимально должно быть равновероятных событий, чтобы количество информации имело положительное значение? (Необходимо получить сообщение о том, что произошло событие как минимум из двух равновероятных).

Количество информации в сообщении о том, что произошло одно событие из двух равно­вероятных, принято за единицу измерения информации и равно 1 биту.

Какая система кодирования существует в вычислительной технике? (Двоичная система счисления, т.е. двоичное кодирование).

Почему наименьшая единица измерения информация называется бит? (На английском языке двоичные цифры называются binary digit или сокращенно bit – бит).

С точки зрения коди­рования с помощью 1 бита можно закодировать два сообщения, события или два варианта некоторой информации. С точки зрения вероятности 1 бит — это такое количество информации, которое позволяет выбрать одно событие из двух равновероятных. Из этого вытекает еще одно определение:

1 бит - это количество информации, уменьшающее неопределенность знаний в два раза.

Сколько бит информации мы получаем в примере с монетой, т.е. в сообщении о том, что произошло одно из двух равновероятных событий? (Один бит).

Начертим на доске таблицу и занесем эти данные:

Количество равновероятных событий, N

Количество информации, i

2

1

4

2

8

3


Рассмотрим еще один пример, но сначала вспомним задачу, которую вы решали в младшей школе.

Есть 8 монет, из которых одна фальшивая. Эта монета легче остальных. Для нахождения фальшивой монеты у вас есть только весы, состоящие из чашек и коромысла. Какую стратегию вы использовали для поиска монеты?

(Учащиеся называют стратегию «Метод деления пополам»).

Используя эту стратегию, угадайте на какую полку стеллажа, состоящего из 4-х полок, библиотекарь положил книгу.

Сколько вариантов может быть? (Четыре варианта).

Вы должны задавать вопросы, на которые можно ответить «да» или «нет». Вопросы должны каждый раз уменьшать неопределенность знаний ровно в два раза.

Первый вопрос учащихся: книга лежит выше второй полки? (Ответ учителя «да»).

Второй вопрос: книга лежит на третьей полке? (Ответ учителя «нет»).

Учащиеся делают вывод о том, что книга лежит на четвертой полке.

Сколько бит информации мы получили? (Два бита).

Дополняем таблицу:

Количество равновероятных событий, N

Количество информации, i

2

1

4

2




А если стеллаж будет состоять из 8 полок, сколько нужно будет задать вопросов и сколько получим бит информации после угадывания, на какой полке лежит книга? (Восемь вариантов, три вопроса, три бита информации).

Дополняем таблицу:

Количество равновероятных событий, N

Количество информации, i

2

1

4

2

8

3

Теперь попробуйте угадать, на какой путь из 16 прибыл поезд. Учащиеся задают вопросы и делают вывод о том, что при угадывании будет получено 4 бита информации.

Дополняем таблицу:

Количество равновероятных событий, N

Количество информации, i

2

1

4

2

8

3

16

4

Попробуйте связать числа в таблице, если каждый вопрос уменьшал неопределенность знаний в 2 раза.

После обсуждений учащиеся получают формулу, которая связывает количество возможных событий и количество информации:

N = 2i ,

где N — количество возможных вариантов, i - количество информации.


В 1928 г. американский инженер Роберт Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:

i = log2 N , N=2i

где N - количество равновероятных событий; i - количество бит в сообщении о том, что любое из N событий произошло.

В 1948 г. американский инженер и математик Клодт Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.

Если I - количество информации,

N - количество возможных событий,

рi - вероятности отдельных событий,

то количество информации для событий с различными вероятностями можно определить по формуле:

hello_html_206e5bee.gif,

Логарифм числа hello_html_cc26c0a.pngпо основанию hello_html_2d86191.png (от греч. λоγος— «слово», «отношение» и aριθμoς— «число») определяется как показатель степени, в которую надо возвести основание hello_html_2d86191.png, чтобы получить число hello_html_cc26c0a.png.

Оhello_html_5dc0266.pngбозначение: произносится: "логарифм hello_html_cc26c0a.pngпо основанию hello_html_2d86191.png".

Иhello_html_2031694f.pngз определения следует, что нахождение равносильно решению уравнения hello_html_1ea17958.png.

hello_html_6d178743.pngНапример, потому что hello_html_m4dd73a60.png

Примеры: log381 = 4 , так как 34 = 81;

log1/3 27 = 3 , так как ( 1/3 ) -3 = 33 = 27 .

Если количество возможных вариантов является целой степенью числа 2, можно использовать выведенную вами формулу N = 2i.

Решим несколько примеров.

  1. Сообщение о том, что Петя живет во втором подъезде, несет 3 бита информации. Сколько подъездов в доме? (Ответ: 8 подъездов)

  2. Сообщение о том, что ваш друг живет на 10 этаже, несет 4 бита информации. Сколько этажей в доме? (Ответ: 16 этажей)

  3. При угадывании целого числа в диапазоне от 1 до N было получено 9 бит информации. Чему равно число N? (Ответ: диапазон чисел имеет значение от 1 до 512).

  4. В коробке лежит цветные карандаши, все карандаши разного цвета. Сообщение о том, что до стали синий карандаш, несет 4 бита информации. Сколько карандашей в коробке? (Ответ: в коробке 64 карандаша).



Количество возможных вариантов информации не всегда является целой степенью числа 2. В случае, если количество информации является вещественным числом, можно воспользоваться калькулятором или таблицей логарифмов (табл. 1).

Таблица 1

Таблица логарифмов


N

I

N

I

N

I

N

I

1

0,00000

17

4,08746

33

5,04439

49

5,61471

2

1,00000

18

4,16993

34

5,08746

50

5,64386

3

1,58496

19

4,24793

35

5,12928

51

5,67243

4

2,00000

20

4,32193

36

5,16993

52

5,70044

5

2,32193

21

4,39232

37

5,20945

53

5,72792

6

2,58496

22

4,45943

38

5,24793

54

5,75489

7

2,80735

23

4,52356

39

5,28540

55

5,78136

8

3,00000

24

4,58496

40

5,32193

56

5,80735

9

3,16993

25

4,64386

41

5,35755

57

5,83289

10

3,32193

26

4,70044

42

5,39232

58

5#5798

11

3,45943

27

4,75489

43

5,42626

59

5,88264

12

3,58496

28

4,80735

44

5,45943

60

5,90689

13

3,70044

29

4,85798

45

5,49185

61

5,93074

14

3,80735

30

4,90689

46

5,52356

62

5,95420

15

3,90689

31

4,95420

47

5,55459

63

5,97728

16

4,00000

32

5,0000

48

5,58496

64

6,00000


Например: Какое количество информации можно получить при угадыва­нии числа из интервала от 1 до 11?

В этом примере N=11. По таблице находим значение i (количество информации), соответствующее числу 11: i = 3,45943 бит.


4. Закрепление полученных знаний (вычисление энтропии кристалла)

Формируем команды по два человека. Каждая команда получает свое задание – найти в интернете информацию по заданной теме. По найденной информации каждая команда делает сообщение (2-5 минут).

Команда 1. Рудольф Клаузиус (краткая биография, направления работы)

Команда 2. Людвиг Больцман (краткая биография, направления работы)

Команда 3. Информация в неживой природе

Команда 4. Понятия «энтропия», «термодинамическая вероятность»

Команда 5. Кристалл, кристаллическая решетка

Команда 6. Дефекты внутренней структуры решетки, называемые «вакансия»

После всех выступлений учащимся предлагается следующая задача:

Вычислите энтропию двухмерного кристалла, показанного на рисунке. Вакансия может быть в любом из всех узлов решетки.

hello_html_m4b069fbf.png











Учащиеся предлагают решение:

Энтропия есть функция состояния, описывающая степень неупорядоченности системы. Количественная связь между энтропией и термодинамической вероятностью выражается формулой Больцмана S=k lnW,

где k – постоянная Больцмана,

S – энтропия,

Wтермодинамическая вероятность.

В этом кристалле 9*11–1= 98 атомов. Вакансия может быть в любом из 99 узлов решетки, следовательно, термодинамическая вероятность W=99, тогда

S= 1,38*10-23 ln99= 1,38*10-23*4,60 = 6,35·10-23 Дж/К.

  1. Рефлексия

Давайте подведем итоги урока. Подумайте, что вы узнали нового, что осталось непонятным или неинтересным. Оцените свое настроение. Для этого загрузите Photoshop, создайте новый файл, сделайте градиентную заливку в соответствии со своим настроением и придумайте соответствующий слоган для пояснения вашего настроения.



57 вебинаров для учителей на разные темы
ПЕРЕЙТИ к бесплатному просмотру
(заказ свидетельства о просмотре - только до 11 декабря)


Автор
Дата добавления 25.10.2015
Раздел Информатика
Подраздел Конспекты
Просмотров178
Номер материала ДВ-094449
Получить свидетельство о публикации
Похожие материалы

Включите уведомления прямо сейчас и мы сразу сообщим Вам о важных новостях. Не волнуйтесь, мы будем отправлять только самое главное.
Специальное предложение
Вверх