АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Что изучает информатика

Читайте также:
  1. Басня изучается в жанровой специфике, образовательный процесс направлен на формирование системы читательских умений
  2. Вопрос 1. Что изучает эргономика?
  3. ИНФОРМАТИКА
  4. Информатика
  5. Информатика и информационные технологии
  6. Информатика и основы компьютерных технологий
  7. Информатика как наука
  8. Информатика как наука
  9. Макроэкономика изучает
  10. Наука информатика существенно опирается на достижения математики, и поэтому долгое время рассматривалась как часть математики.
  11. ПРАВОВАЯ ИНФОРМАТИКА

Информация, хранение информации

Объектом изучения в информатике являются способы представления информации, процессы ее хранения, передачи и обработки.

В восприятии человеком информации о внешнем мире основную роль играют зрительные образы. Физиологи установили, что около 90% информации человек воспринимает зрением, примерно 9% – слухом, и оставшийся 1% остальными органами чувств.

Хранение информации – это процесс передачи информации во времени. Хранение информации связано с обеспечением неизменности состояния материальных носителей информации, на которых она записана в виде сообщений. В компьютерной технике для хранения информации используются запоминающие устройства. Запоминающие устройства позволяют записывать на них информацию и считывать ее по мере необходимости. Запоминающие устройства характеризуются надежностью, емкостью и скоростью записи и считывания информации.

Память отдельного человека ограничена сроком его жизни, но в человеческом обществе часть информации сохраняется на протяжении тысячелетий. Это стало возможным благодаря способности людей передавать знания друг другу. На заре цивилизации для этого использовались только личный пример и речь. Возникновение письменности сделало необязательным личное общение при обучении, но далеко не все книги далеких времен сохранились до наших дней. Появление электронных носителей данных и их объединение в глобальные информационные сети позволяет надеяться, что информация о достижениях современной цивилизации не будет потеряна для последующих поколений.

Существенную часть информатики составляет раздел, посвященный автоматизации этих процессов с использованием компьютерной техники.

Понятие информации является основным в теоретической информатике, и как это часто бывает с фундаментальными понятиями, не имеет своего строгого определения. Так, например, при изложении геометрии обычно не дается математического определения исходного понятия “точка”. Интуитивно понятно, что под информацией имеются в виду некоторые сведения, которые можно хранить, изменять и кому-то сообщать.

Сама по себе информация нематериальна, но она передается с помощью материальных сообщений и может быть представлена в различных материальных формах. Для того чтобы извлечь информацию из сообщения, нужно знать правила интерпретации (истолкования) сообщений. Правила интерпретации зависят от конкретной ситуации, в которой получено сообщение. Поэтому одно и то же сообщение может нести различную информацию. Так, например, звонок в школе может означать начало урока или начало перемены. И наоборот, одна и та же информация может быть передана с помощью различных сообщений. Например, текст одного и того же содержания может быть записан на различных языках.

Алфавиты. Кодирование

В технических устройствах, в том числе компьютерных, обработка информации сводится исключительно к преобразованию сообщений по определенным правилам. Когда мы складываем с помощью калькулятора или компьютера два числа, то мы вводим в устройства сообщения, которые после выполнения операций, предусмотренных конструкцией, превращаются в сообщение-результат. Компьютеры могут быть оснащены сложными программами, но они пока не могут обобщать информацию, делать выводы, рассуждать от общего к частному, как это свойственно человеку. Компьютер является лишь инструментом обработки информации, автоматом, исполняющим заложенные в него людьми программы. Только человек с его мышлением способен к полноценной обработке информации – получению новых теоретических знаний на основе анализа накопленных сведений и применению этих знаний на практике.

Часто сообщения формируются из отдельных знаков. Такие сообщения называются дискретными. Дискретным сообщениям принадлежит важная роль в процессах обработки информации.

Конечное упорядоченное множество знаков называется алфавитом. Под знаками следует понимать не только буквы и цифры, но и любые отличимые друг от друга объекты. Мощностью алфавита называется количество содержащихся в нем знаков.

Примеры алфавитов:

Алфавиты. Мощность
Азбука Морзе 2 (точка, тире)
Арабские цифры 10 (0,1,2,3,…9)
Сигналы светофора 3 (красный, жёлтый, зелёный)
Русские буквы 33 (а, б, в,……. э, ю, я)

Совокупность правил построения сообщений из знаков некоторого алфавита и правил интерпретации этих сообщений называется языком.

Процесс перевода сообщения с одного языка на другой называется кодированием, а сам результат перевода – кодом. Кодирование используется для представления информации в удобной для обработки форме, а иногда – для обеспечения секретности передаваемой информации. В этом случае обычно говорят не “кодирование”, а “ шифрование ”.

Шифрование сообщений.

Одной из основных проблем, связанных с информационной безопасностью при передаче данных по компьютерным сетям, является защита данных от перехвата и чтения посторонними в процессе передачи. Эта проблема решается путем шифрования данных перед их отправлением.

Ключом к шифру называется информация, позволяющая зашифровывать или расшифровывать сообщения по некоторому алгоритму.

Можно выделить два вида технологий шифрования – шифрование симметричным и несимметричным ключом.

При шифровании с использованием симметричного ключа документ кодируется и декодируется одним и тем же ключом. Пример симметричного шифрования – код Цезаря, в котором каждая буква латинского алфавита заменятся третьей по счету от нее, а последние буквы алфавита переходят в первые, по кругу. При расшифровке выполняется обратное преобразование. Недостатком симметричного шифрования является то, что ключ должен храниться в тайне и отправителем, и получателем шифровок. Кроме того, такой способ не позволяет однозначно идентифицировать автора сообщения. Им может быть любой владелец ключа, например, один из получателей шифровок.

При шифровании с несимметричным ключом используется не один, а пара взаимосвязанных ключей. Ключи устроены так: то, что зашифровано первым ключом, может быть прочитано только с помощью другого ключа, и наоборот, то, что зашифровано вторым ключом, не может быть прочитано без первого. Таким образом, даже человек, зашифровавший сообщение, не сможет его расшифровать, не зная второго ключа. Несимметричное шифрование является результатом математических исследований и основано на выполнении определенных операций с целыми числами. Ключом при несимметричном шифровании является также целое число.

Несимметричное шифрование часто используется в системах Интернет-коммерции для защиты данных о кредитных карточках от несанкционированного доступа. Один из ключей свободно распространяется среди клиентов, которые кодируют с его помощью данные для пересылки продавцу. Такой ключ называется открытым ключом. Но прочитать данные может только продавец с помощью второго ключа, который держится им в секрете. Этот ключ называют закрытым. Пара открытый ключ – закрытый ключ используется также для удостоверения происхождения документа. Если документ зашифрован чьим-то закрытым ключом, то значит, владелец закрытого ключа и является автором документа.

Многие почтовые программы поддерживают возможность шифрования данных. В Интернет существуют специальные сайты, на которых можно получить несимметричные ключи.

Особое место в информатике занимают алфавиты, состоящие из двух знаков – двоичные алфавиты. Двоичный алфавит замечателен тем, что он является алфавитом минимальной мощности, пригодным для представления информации. В теории информатики доказано, что любые дискретные сообщения можно закодировать с помощью двоичного алфавита. Такое кодирование называется двоичным кодированием, а код – двоичным кодом. Знаки двоичных алфавитов легко представляются в технических устройствах (один знак – нет сигнала, другой знак – есть сигнал), в математике (0 и 1), в логике (истина и ложь).

Передача информации

Передача, хранение и обработка информации представляют собой информационные процессы, протекающие в социальных, биологических и технических системах.

Передача информации производится путем посылки сообщений, которые, в свою очередь передаются сигналами, способными распространяться в различных физических средах. В компьютерной технике сообщения передаются с помощью электрических сигналов. Если есть физическая возможность передать сигнал от источника к приемнику, то говорят, что между ними существует канал связи. Основными характеристиками канала связи являются надежность передачи информации и его пропускная способность, то есть скорость передачи информации по каналу.

Пропускная способность канала – это отношение количества переданной информации ко времени, затраченному на передачу. Она измеряется в битах в секунду (бод) и кратных единицах:

1 байт /с = 23 бит/с = 8 бит/с

1 Кбит/с = 210 бит/с = 1024 бит/с

1 Мбит/с = 210 Кбит/с = 1024 Кбит/с = 1 048 576 бит/с и так далее.

Пример 1. Пусть по каналу передается 30 Кбит информации за 13 сек. Найдем пропускную способность канала. По определению она равна отношению количества переданной информации ко времени, затраченному на передачу, или 30 Кбит/13 сек = 2,307 Кбит/с

Пример 2. Пусть по каналу с пропускной способностью 2048 бит/с требуется передать 2Кбайта информации. Определим время, необходимое для передачи. Оно равно

2Кбайта / 2048 бит/с =2*1024*8 /2048[ бит / бит/с ] =8 сек.

Алфавитный подход

Если информация представлена в виде дискретного сообщения, то логично считать количеством информации его длину, то есть общее число знаков в сообщении. Но длина сообщения зависит не только от содержащейся в нем информации. На нее влияет мощность алфавита используемого языка. Чем меньше знаков в используемом алфавите, тем длиннее сообщение. Так, например, в алфавите азбуки Морзе всего три знака (точка, тире, пауза), поэтому для кодирования каждой буквы нужно использовать несколько знаков, и текст, закодированный по Морзе, будет намного длиннее, чем при обычной записи.

Пример: (SOS) - 3 знака в латинском алфавите;

(··· пауза – – – пауза ···) – это же слово из11 знаков в алфавите Морзе:

Для упорядочивания измерений информационный объем сообщений принято измерять в битах. Один бит соответствует одному знаку двоичного алфавита. Итак, чтобы измерить длину сообщения, его нужно представить в двоичном виде и подсчитать количество двоичных знаков – битов.

Пример: Сообщение в двоичном алфавите выглядит следующим образом:

00010110010001.

Мы не знаем, какая информация была заложена в этом сообщении, но его длина - 14 двоичных знаков, т.е. информационный объем 14 бит.

Такой способ измерения количества информации называется алфавитным подходом. При этом измеряется не содержание информации с точки зрения его новизны и полезности, а размер несущего информацию сообщения. При алфавитном подходе к определению количества информации одни и те же сведения, закодированные по-разному, будут иметь различный информационный объем. Сообщения одинаковой длины могут нести совершенно как совершенно бесполезные сведения, так и нужную информацию.

Пример: Применяя алфавитный подход, получаем, что информационный объем слов “лпгнорьтлпа” и “информатика” совершенно одинаков, а слов “кино” и “кинофильм” – различен.

Если алфавит содержит 2n знаков, то каждый из его знаков можно закодировать с помощью n знаков двоичного алфавита. Таким образом, объем информации, содержащейся в сообщении длиной m при использовании алфавита мощностью 2n , равен m·n бит.

Пример: Найдем информационный объем слова SOS, записанного в компьютерной кодировке. При кодировании букв в компьютере используется либо алфавит ASCII (American Standard Code for Information Interchange — американский стандартный код обмена информацией), состоящий из 28=256 знаков (один знак можно закодировать с помощью 8 знаков двоичного алфавита или 8 бит), либо алфавит Unicode, мощность которого 216 = 65536 (16 бит один знак). В слове SOS три буквы, следовательно, его информационный объем 3·8=24 бит в кодировке ASCII или 3·16 = 48 бит в кодировке Unicode.

Алфавитный подход удобен при подсчете количества информации, хранимого, передаваемого и обрабатываемого техническими устройствами, потому что компьютеры, принтеры, модемы работают не с самой информацией, а с ее представлением в виде сообщений.

Единицы измерения количества информации

Для удобства, помимо бита используются более крупные единицы измерения количества информации. Вот соотношения между ними:

1 байт = 23 бит = 8 бит

1 килобайт (Кб) = 210 байт = 1024 байт

1 мегабайт (Мб) = 1024 Кб

1 гигабайт (Гб) = 1024 Мб

1 терабайт (Тб) = 1024 Гб

То, что отношения между единицами измерения кратны степеням 2, объясняется большим теоретическим и практическим значением двоичного кодирования в информатике.

Количество информации как мера уменьшения неопределенности

С точки зрения отдельного человека, ценность информации определяется тем, насколько она проясняет для него какой-либо вопрос, то есть уменьшает неопределенность ситуации. При этом количество одной и той же информации может быть оценено различными людьми по-разному. Для объективного измерения количества информации необходимо формализовать задачу.

Будем считать события равновозможными, если мы не располагаем заранее никакой информацией (статистическими данными, логическими умозаключениями и т.д.), о том, что шансы одного из событий выше или ниже, чем шансы любого другого. При этом имеется в виду, что в результате опыта обязательно наступит какое-либо событие и притом только одно.

Так, например, при подбрасывании монеты выпадение орла или решки можно считать равновозможными событиями, предполагая монету идеальной, то есть исключив из рассмотрения возможность других исходов ("зависла в воздухе", "встала на ребро"), а также влияние на исход опыта чеканки на сторонах монеты, отклонения формы реальной монеты от правильной и т. д.

Чем больше равновозможных событий, тем больше неопределенность ситуации. Минимальный размер сообщения о том, что произошло одно из двух равновозможных событий, равен одному биту. Информацию о том, что произошло первое событие, можно закодировать в двоичном алфавите нулем, а о том, что произошло второе событие – единицей.

Для уменьшения неопределенности в два раза (вместо двух возможных событий – одно реально произошедшее) требуется один бит информации. Иначе говоря, сообщение, уменьшающее неопределенность ситуации в два раза, несет один бит информации. Если его длина, подсчитанная с использованием алфавитного подхода больше, значит сообщение несет избыточную, с точки зрения уменьшения неопределенности, информацию.

Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания идеальной монеты (два равновозможных события) несет один бит информации. 2 = 21

Пример. С точки зрения уменьшения неопределенности, сообщение о исходе опыта бросания двух идеальных монет (четыре равновозможных события: орел-решка; решка-орел; орел-орел; решка-решка) несет два бита информации. Действительно, 2n в данном случае равняется четырем, следовательно n = 2. Для уменьшения неопределенности ситуации в 2n раз необходимо n бит информации: K = 2n

n                      
log2k                      

Задача нахождения n по известному значению K = 2n решается нахождением логарифма числа K по основанию 2, поэтому, для того, чтобы закодировать информацию, уменьшающую неопределенность в k раз, необходимо log2k бит информации. Приведем таблицу некоторых двоичных логарифмов, являющихся целыми числами.

Если используется алфавит, состоящий не из двух, а из 2p знаков, то каждый знак может нести информацию, уменьшающую неопределенность ситуации в 2p раз. Таким образом, сообщение из m знаков позволяет уменьшить неопределенность в (2p)m = 2pm раз, то есть его информационный объем равен m·p бит, что согласуется с результатом, полученным при использовании алфавитного подхода.


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.007 сек.)