|
|||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Единицы измерения информацииРассмотренное ранее свойство полноты информации подразумевает, что информацию можно измерять количественно.Для того чтобы понять, как определить количество информации в данном конкретном сообщении, рассмотрим связь понятий информация, неопределенность и возможность выбора. Решение разнообразных задач, выбор и принятие решений происходит в процессе постепенного устранения неопределенностей, содержащихся в исходных условиях, на основе получения и использования информации об окружающем мире. Получение человеком информации приводит к уменьшению неопределенности, снижая тем самым число возможных вариантов выбора, а наличие полной информации позволяет однозначно решить поставленную задачу, не оставляя вариантов выбора. Однако одно и то же сообщение несет для разных людей разное количество информации, поскольку уровень новизны и ценности полученной информации оказывается для них различным. Например, если передаваемые сведения не относятся к рассматриваемому вопросу, или же были уже известны человеку, то после их получения неопределенность остается прежней, и, следовательно, информация не была получена – ее количество равно нулю. Если же после получения сообщения неопределенность снята и достигнута полная ясность в рассматриваемом вопросе, то полученная информация является исчерпывающей и ее количество равно исходной неопределенности. Исходя из сказанного, можно определить количество информациикак числовую характеристику информации, отражающую ту степень неопределенности, которая пропадает в результате получения сообщения. Базовая единица измерения информации получила название бит (bit) – аббревиатура английских слов binary digit,переводящихся как двоичная цифра. За один бит принято количество информации, содержащееся в сообщении о событии, имеющемдва равновозможных исхода. Иными словами, бит равен количеству информации в ответе на вопрос, допускающий лишь односложный ответ - «да» или «нет». При получении количества информации в один бит число вариантов выбора или, иными словами, неопределенность, уменьшается в два раза. При практическом применении оказывается, что бит является слишком маленькой единицей измерения количества информации. Поэтому в информатике часто используется единица измерения, получившая название байт (byte), которая равна 8 битам. Использование одного бита позволяет выбрать один вариант из двух возможных, а байт - 1 из 256 (28). Помимо этого, для измерения количества информации используются более крупные единицы: 1 Кбайт (один килобайт) = 2 10 байт = 1024 байта; 1 Мбайт (один мегабайт) = 2 10 Кбайт = 1024 Кбайта; 1 Гбайт (один гигабайт) = 2 10 Мбайт = 1024 Мбайта. Использование битовой (двоичной) единицы информации, а не какой-либо другой связано с аппаратным устройством компьютеров. Основные элементы его памяти базируются на двоичном принципе: оперативная память – есть заряд на обкладках конденсатора или нет, дисковая – намагничена данная область или нет. Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.003 сек.) |