Пятница, 15.11.2024, 09:15 
Сайт преподавателей 
Экономики, 
Математики, 
Информационных 
Технологий

Календарь
«  Ноябрь 2024  »
ПнВтСрЧтПтСбВс
    123
45678910
11121314151617
18192021222324
252627282930
Статистика

Онлайн всего: 3
Гостей: 3
Пользователей: 0
Меню сайта
Вход на сайт

   Тема 2.1 Представление и обработка информации

С позиции человека информация- это содержание разных сообщений, это самые разнообразные сведения, которые человек получает от окружающего мира через свои органы чувств.

   Теория информации. результат развития теории связи (К.Шеннон) Информация-содержание, заложенное в знаковые ( сигнальные последовательности).

    Кибернетика. Исследует информационные процессы в системах управления (Н. Винер). Информация- содержание сигналов, передаваемых по каналам связи в системах управления.

    Нейрофизиология. Изучает информационные процессы в механизмах нервной деятельности животного и человека. Информация- содержание сигналов электрохимической природы, передающихся по нервным волокнам организма.

     Генетика. Изучает механизмы наследственности, пользуется понятием "наследственная информация". Информация- содержание генетического кода- структуру молекул ДНК, входящих в состав клетки живого организма.

     Философия. Атрибутивная концепция: Информация- всеобщее свойство (атрибут) материи.

     Функциональная концепция: Информация и информационные процессы присущи только живой природе, являются ее функцией.

     Антропоцентрическая концепция: Информация и информационные процессы присущи только человеку.

    Понятие информации относится к числу фундаментальных, т.е. является основополагающим для науки и не объясняется через другие понятия.

В этом смысле информация встает в один ряд с такими фундаментальными научными понятиями, как вещество, энергия, пространство, время.

     Содержательный (вероятностный) подход к измерению информации

     Существует два подхода к измерению информации: содержательный (вероятностный) и объемный (алфавитный). 

    Процесс познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Получение новой информации приводит к расширению знания или к уменьшению неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности нашего знания, то можно говорить, что такое сообщение содержит информацию. 

      Пусть у нас имеется монета, которую мы бросаем. С равной вероятностью произойдет одно из двух возможных событий – монета окажется в одном из двух положений: «орел» или «решка». Можно говорить, что события равновероятны. 

     Перед броском существует неопределенность наших знаний (возможны два события), и, как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим, что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит к уменьшению неопределенности наших знаний в два раза, так как до броска мы имели два вероятных события, а после броска – только одно, то есть в два раза меньше. 

     Чем больше неопределенна первоначальная ситуация (возможно большее количество информационных сообщений – например, бросаем не монету, а шестигранный кубик), тем больше мы получим новой информации при получении информационного сообщения (в большее количество раз уменьшится неопределенность знания). 

     Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений.

    Существует формула – главная формула информатики, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение:

N = 2I 

   За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа бит.

     Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза и, следовательно, полученное количество информации равно 1 биту. 

2 = 21 

    Бит – наименьшая единица измерения информации.

    С помощью набора битов можно представить любой знак и любое число. Знаки представляются восьмиразрядными комбинациями битов – байтами. 

1байт = 8 битов

Байт – это 8 битов, рассматриваемые как единое целое, основная единица компьютерных данных.

Для измерения информации используются более крупные единицы: килобайты, мегабайты, гигабайты, терабайты и т.д.

1 Кбайт = 210 байт = 1 024 байт

1 Мбайт = 220 байт = 210 Кбайт = 1 024 Кбайт = 1 048 576 байт

1 Гбайт = 230 байт = 1 024 Мбайт

1 Тбайт = 240 байт = 1 024 Гбайт

Задача №1.

В рулетке общее количество лунок равно 32. Какое количество информации мы получим при остановке шарика в одной из лунок?

Задача №2.

Сообщение о том, что Петя живет во втором подъезде, несет 3 бита информации. Сколько подъездов в доме?

Задача №3.

В школьной библиотеке 16 стеллажей с книгами. На каждом стеллаже 8 полок. Библиотекарь сообщил Пете, что нужная ему книга находится на пятом стеллаже на третьей сверху полке. Какое количество информации передал библиотекарь Пете?

Задача №4.

При угадывании целого числа в диапазоне от 1 до N было получено 9 бит информации. Чему равно N?

 Задача №5.

Заполните пропуски числами:

5 Кбайт = __5120__байт = _40960____ бит

_1,5_Кбайт = 1536 байт = _____ бит

__Кбайт = ____ байт = 512 бит  

Объемный (алфавитный) подход к измерению информации

     Информация является предметом нашей деятельности: мы ее храним, передаем, принимаем, обрабатываем. Нам часто необходимо знать, достаточно ли места на носителе, чтобы разместить нужную нам информацию, сколько времени потребуется, чтобы передать информацию по каналу связи и т.п. Величина, которая нас в этих ситуациях интересует, называется объемом информации. В таком случае говорят об объемном подходе к измерению информации. 

     Для обмена информацией с другими людьми человек использует естественные языки (русский, английский, китайский и др.). 

    Наряду с естественными языками были разработаны формальные языки (системы счисления, язык алгебры, языки программирования и др.). Основное отличие формальных языков от естественных состоит в наличии строгих правил грамматики и синтаксиса. Например, системы счисления можно рассматривать как формальные языки, имеющие алфавит (цифры) и позволяющие не только именовать и записывать объекты (числа), но и выполнять над ними арифметические операции по строго определенным правилам. Некоторые языки используют в качестве знаков не буквы и цифры, а другие символы, например химические формулы, ноты, изображения элементов электрических или логических схем, дорожные знаки, точки и тире (код азбуки Морзе и др.). 

Представление информации может осуществляться с помощью языков, которые являются знаковыми системами.

Каждая знаковая система строится на основе определенного алфавита и правил выполнения операций над знаками.

При хранении и передаче информации с помощью технических устройств информация рассматривается как последовательность символов – знаков (букв, цифр, кодов цветов точек изображения и т.д.)

     Набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния (события). Тогда, если считать, что появление символов в сообщении равновероятно, по формуле

N = 2I

где N – это количество знаков в алфавите знаковой системы, можно рассчитать

I – количество информации, которое несет каждый символ.

     Информационная емкость знаков зависит от их количества в алфавите. Так, информационная емкость буквы в русском алфавите, если не использовать букву «ё», составляет:

32 = 2I , т.е. I = 5 битов

     В латинском алфавите 26 букв. Информационная емкость буквы латинского алфавита также 5 битов. На основании алфавитного подхода можно подсчитать количество информации в сообщении Ic, для этого необходимо умножить количество информации, которое несет один символ I, на количество символов K в сообщении:

Ic = I х K

   Например: в слове «информатика» 11 знаков (К=11), каждый знак в русском алфавите несет информацию 5 битов (I=5), тогда количество информации в слове «информатика» Iс=5х11=55 (битов).

   Интересно, что сама единица измерения количества информации бит (bit) получила свое название от английского словосочетания BInary digiТ, т.е. двоичная цифра. 

    Чем большее количество знаков содержит алфавит знаковой системы, тем большее количество информации несет один знак. 

Задание №1.

Мощность алфавита равна 256. Сколько Кбайт памяти потребуется для сохранения 160 страниц текста, содержащего в среднем 192 символа на каждой странице?

Задание №2.

Информационное сообщение объемом 1,5 Кбайта содержит 3072 символа. Сколько символов содержит алфавит, при помощи которого записано это сообщение?

Задание №3.

    Сколько символов составляет сообщение, записанное с помощью 16-ти символьного алфавита, если объем его составил 1/16 часть Кбайта?

    Информация в компьютере представлена в двоичном коде, алфавит которого состоит из двух цифр- 0 и 1. Цифра двоичной системы называется битом (от английских слов binary digit - двоичная цифра).

    Кодирование - это операция преобразования знаков или групп знаков одной знаковой системы в знаки или группы другой знаковой системы.

    Двоичное кодирование текстовой информации

   В основе кодирования текстовой информации лежит кодировка символов вводимых с клавиатуры. Основной принцип кодирования символов - договоренность. 

   Код ASCII (American Standard Code for Information Interchange -Американский стандартный код информационного обмена), принятый для персональных компьютеров. Алфавит, отображаемый в двоичные коды, включает знаки, которые можно набрать на клавиатуре компьютера (в том числе комбинаций различных клавиш). Таких знаков 256. 

Алгоритм определения количества текстовой информации:

1. Определить кол-во символов.

2. Определить сколько бит используется для кодировки 1 символа.

3. Количество информации = число символов * число разрядов в двоичном коде.  

Задача №1.

    Подсчитайте количество информации в данном тексте (бит, байт)

    Двоичное кодирование графической информации

   Изображение представляется в виде совокупности точек (пикселов). Точки, принадлежащие изображению, и точки, принадлежащие фону, кодируются разными знаками. Черно-белое изображение можно закодировать последовательностью: 

0 - нет сигнала (чёрный); 1 - есть сигнал (белый)

Алгоритм определения количества графической информации:

1. Определить кол-во пиксель в изображении;

2. Определить глубину цвета.

Цветные изображения могут иметь различную глубину цвета:

 2 цвета 1 пиксел – 1 бит

 256 цветов 1 пиксел – 1 байт=8 бит

 65536 цветов 1 пиксел – 2 байт=16 бит

3. Количество информации = количеству точек (пиксел), составляющих кадр изображения * глубина цвета.

Задание №2.

Выполните кодирование черно-белого графического изображения. Определить количество информации (бит,байт).

Задание №1.

Определить объем графического растрового изображения размером 50 на 50 и глубина цвета 256 цветов.

Двоичное кодирование звуковой информации. 

Алгоритм определения кол-ва звуковой информации:

1. Глубина кодирования – количество различных уровней сигнала:

 256 уровней – 1 байт = 8 бит

 65536 уровней – 2 байта = 16 бит

2. Частота дискретизации определяется в Гц.

3. Режимы звучания:

 моно – 1

 стерео – 2

4. время в секундах

5. Количество звуковой информации = глубиной кодирования (бит)* частотой дискретизации (Гц)* режим звучания * время (секунды)  

Задание №4.

Определите информационный объём стереоаудиофайла длительностью звучания 5 секунд при частоте 48 КГц и глубиной кодирования 65536 уровней.