АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Развитие научных представлений об информации

Читайте также:
  1. B) подготовка, системно построенная с помощью методов-упражнений, представляющая по сути педагогический организованный процесс управления развитием спортсмена
  2. B. на процессе сбора, передачи и хранения информации
  3. C) в тексте нет информации
  4. C. развитие знаний в форме дообучения на дополнительной последовательности примеров
  5. C. развитие знаний в форме дообучения на дополнительной последовательности примеров
  6. C.) При кодировании текстовой информации в кодах ASCII двоичный код каждого символа в памяти ПК занимает
  7. CMS, редактирование информации
  8. I. Истоки, развитие и расцвет Акаданского Джайхата, государства, предшествующего Абиссланду
  9. S: Установите соответствие между типом общества и экономическим развитием данного общества.
  10. V1: Приборы выдачи измерительной информации
  11. VI раздел. Создание представлений о здоровом образе жизни
  12. VII. Раскрытие информации в бухгалтерской (финансовой) отчётности

Считается, что одним из первых понятие информации в научный оборот было введено Р.Фишером* в 1921 г. применительно к решению задач статистике. Статистика имеет дело с большим числом результатов наблюдений и заменяет обычно их полное перечисление указанием некоторых сводных характеристик. Иногда при такой замене происходит потеря информации, но при некоторых условиях сводные характеристики содержат всю информацию, содержащуюся в полных данных. Р.Фишером была предложена мера (среднего) количества информации, относительно неизвестного параметра, содержащейся в одном наблюдении. В круг интересов Р.Фишера входили и вопросы генетической теории эволюции, также непосредственно связанные с информацией.

Примерно в этот же период началось широкое распространение радиоэлектронных методов передачи сообщений на большие расстояния. Перед специалистами остро встала проблема качества и надежности связи.

Передаваемый сигнал это форма, в которую преобразованы сообщения. Очень важно как можно плотнее «наполнить» сигнал полезными данными, а при получении «извлечь» их с минимальными потерями, которые неизбежны при прохождении сигнала в физической среде. Для решения этой задачи требовалась разработка методов количественной оценки передаваемых сведений.

В результате многочисленных исследований в середине 30-40-х годов ХХ в. такие методы были созданы.

Основы теории информации, как самостоятельного научного направления были изложены в статье «Математическая теория связи» (1948 г.) выдающегося американского ученого и инженера К.Шеннона (1916-2001). Эта статья дала толчок интенсивному развитию математической теории передачи информации, углубленным исследованиям вопросов ее количественного измерения. Методы данной теории позволили определять информационные характеристики конкретных видов сообщений (письменной и устной речи, фотографических и телевизионных изображений и пр.).

Цели, которые ставил перед собой Шеннон, были связаны с чисто техническими вопросами радиоэлектронной связи. Он решал проблемы повышения эффективности и надежности передачи данных. Однако в дальнейшем, благодаря своему общему характеру, работы Шеннона оказали большое влияние на все исследования, относящиеся к передаче и хранению какой бы то ни было информации в природе и технике. В дальнейшем идеи, как ее сегодня называют, классической теории информации стали использоваться в метрологии, нейрофизиологии, генетике, лингвистике и т.д.

Необходимо отметить, что работа Шеннона базировалась на трудах многих ученых, работающих в этой и смежных областях. Важную роль в становлении и развитии теории информации сыграли работы российских математиков и инженеров В.А.Котельникова (1908), А.Н.Колмогорова (1903-1987), А.Я.Хинчина (1894-1959), А.М Яглома, А.А.Харкевича (1904-1965) и др..

Котельников работал над совершенствованием методов радиоприема, разработкой методов борьбы с помехами. Теорема Котельникова, на которой построен принцип действия электронных машин, телевидения, систем связи, была сформулирована еще в 1933 г., до возникновения современной теории информации. Согласно этой теоремы максимальное число различных элементарных сигналов, которые можно передать по линии связи за единицу времени, является некоторой технической характеристикой линии, которую нельзя изменить, не внося изменений в саму линию. Данный вывод играет основную роль во всех применениях теории информации к вопросу о передаче непрерывных сигналов. Клод Шеннон, ссылался на его работу.

А.Н.Колмогоров считается одним из крупнейших математиков ХХ столетия. Он был одним из первых российских ученых, осознавших значение работ К.Шеннона по теории информации. Он обобщил и применил понятие энтропии в ряде областей математики, создав несколько новых научных математических направлений. В последние годы своей творческой деятельности он работал над созданием алгоритмических основ теории информации и теории вероятностей.

Исторически первые шаги к введению понятия энтропии как меры степени неопределенности сообщений были сделаны в 1928 г. американским инженером-связистом Р.Хартли, предложившим за отправную точку для информационной оценки события принимать его неопределенность и количественно характеризовать степень неопределенности события с n различными исходами числом log n.

До этого понятие энтропия широко использовалось в физике. Первым в 1865 г. его ввел немецкий ученый Р.Клаузиус (1822-88) для характеристики состояния термодинамических систем. Несколько позже оно стало использоваться в статистической физике как мера вероятности пребывания системы в данном состоянии. Австрийский физик Людвиг Больцман (1844-1906) в 1872 г. сформулировал принцип, устанавливающий соотношение между энтропией и ее термодинамической вероятностью через логарифмическую функцию и некую постоянную, в последствии названную в его честь.

Идея вероятностного подхода к оценке количества информации основывалась на следующих моментах. Существует множество примеров различных событий, характеризующихся одинаковой неопределенностью. Например, встреча на одном из 4-х углов перекрестка, выбор одной из 4-х карт различной масти и т.д. Во всех этих случаях имеет место неопределенность, характеризующаяся возможностью выбора одного из четырех вариантов.

Логично считать, что количество информации, полученной в результате совершения события, будет одинаковым независимо от сути процессов. Сообщения, которые могут быть получены при каждом из этих выборов, можно обозначить символами А, Б, В, Г и, не вдаваясь в конкретный смысл события, рассматривать его отвлеченно, просто как выбор некоторого элемента (символа) из четырех возможных. При этом логично считать, что количество полученной информации, не связанной с конкретным содержанием события, будет одинаковым при выборе одного из четырех символов во всех случаях.

Соответственно можно привести примеры событий, обладающих большей или меньшей неопределенностью, например, выпадение орла или решки при бросании монетки либо одной из шести сторон игральной кости.

Всю совокупность символов, которыми закодированы варианты возможных событий и сообщений о них, называют алфавитом сообщений. Зная алфавит сообщений, можно реализовать предложенный Р.Хартли структурный (или комбинаторный) подход к определению количества информации в сообщении.

Суть его состоит в том, чтобы оценивать неопределенность получения от источника того или иного сообщения исходя из общего множества возможных сообщений, величина которого в свою очередь обусловлена количеством информационных элементов, комбинаций этих элементов и связей между ними.

Более подробно содержание и особенности этого подхода мы рассмотрим ниже, а здесь упомянем еще несколько научных направлений, сыгравших важнейшую роль в становлении и широком распространении понятия информации.

Существует особая, очень тесная связь между теорий информации и другой важнейшей наукой, сформировавшейся в ХХ в., – кибернетикой.

В том же 1948 г., когда была опубликована знаменитая статья Шеннона, вышла в свет книга американского ученого Норберта Винера (1894-1964) «Кибернетика, или связь в животном и машине», в которой он обобщил общие принципы построения и работы любых управляющих систем, показал ключевую роль информации в управлении.

Основная идея книги – подобие процессов управления и связи в технических, биологических и социальных (организационных) системах. Эти процессы по своей природе прежде всего являются процессами передачи, хранения и переработки информации, т.е. различных сигналов, сообщений, сведений. Отсюда мысль о возможности создания общей для систем любого класса теории управления. Книга Винера стала итогом работы организованного им совместно с физиологом Артуром Розенблютом в годы Второй мировой войны семинара, в котором принимали участие математики, нейрофизиологи, специалисты по теории связи и вычислительной технике.

По словам Винера, их работа серьезно затруднялась отсутствием общей терминологии, даже хотя бы единого названия той области, которой они занимались. В ходе продолжительных обсуждений был сделан вывод, что вся существующая к тому времени терминология не может способствовать в надлежащей степени развитию этой области, и по примеру других ученых пришлось придумать искусственное неогреческое выражение для устранения пробела. Было решено назвать теорию управления и связи кибернетикой, от греческого «кормчий» – рулевой, ведущий судно. Этим хотели отметить, что судовые рулевые машины были действительно одними из самых первых хорошо разработанных устройств с обратной связью, лежащей в основе процессов управления.

Но позже выяснилось слово «кибернетика» не является неологизмом. Оно встречается довольно часто у Платона, где обозначает искусство управлять кораблем, искусство кормчего, а в переносном смысле, также искусство управлять людьми. В 1834 г. знаменитый французский физик А.Ампер (1775-1836), занимавшийся вопросами классификации наук назвал, по примеру древних, «кибернетикой» науку об управлении государством.

Кстати, по-видимому из-за того, что в становлении кибернетической науки принимали участие представители различных дисциплин, долгое время существовала путаница в определении предмета и соотношении кибернетики, теории информации и компьютерных наук.

Процессы управления действительно неразрывно связаны с процессами сбора, передачи и обработки информации, изучение которых является предметом теории информации. Но из этого не следует делать вывод, что эта теория является разделом кибернетики. Теория информации занимается изучением процессов преобразования информации более широко, часто вне связи с процессами управления.

Одной из главных задач теории информации является повышение помехоустойчивости передачи сообщений. Для этого разрабатываются специальные методы кодирования. Возникло даже новое большое направление – теория кодирования, которое некоторые специалисты считают самостоятельной научной дисциплиной. Другие же полагают, что к уже началу 70-х годов ХХ в. сама классическая теория информации свелась в первую очередь к теории кодирования.

А кибернетика – это наука об общих принципах управления в различных системах: технических, биологических, социальных и др. Кибернетика исследует любые управленческие процессы, причем независимо от того, используется ли для их реализации компьютерная техника или нет. Однако уже на самых ранних этапах развития этой науки стало понятно, многие технические системы достигли такого уровня сложности, который не позволяет управлять ими с требуемой быстротой и точностью без помощи автоматических или автоматизированных систем обработки информации. И поэтому вся история становления кибернетики теснейшим образом переплетается с развитием вычислительной техники.

Выдающийся американский ученый фон Нейман, разработавший принципиальную схему работы вычислительной машины, также считается одним из родоначальников кибернетики. Его работы во многом способствовали ее становлению. Но компьютеры могут использоваться для обработки любой, не обязательно управленческой информации, и поэтому отождествлять кибернетику с компьютерной обработкой информации также совершенно неправильно.

Примерно в это время, в 40-50 гг. ХХ в., параллельно с кибернетикой и теорией информации начала формироваться и еще одна наука, получившая в англоязычных странах название computer science (наука о компьютерной технике).

Считается, что чуть позже, в 60-х гг. во Франции для обозначения области, занимающейся автоматизированной обработкой информации с помощью электронных вычислительных машин, стали использовать термин «информатика» (Informatique), образованный объединением слов Information и Automatique (информация и автоматизация).

В некоторых учебниках можно прочитать, что слово «информатика» появилось в русском языке в 70-х годах ХХ в. и позаимствовано из французского. На наш взгляд это случилось несколько позже. Широкое распространение этот термин получил в период массового внедрения персональных компьютеров в 80-х гг. Решение об организации нового отделения информатики, вычислительной техники и автоматизации в Академии наук СССР было принято в 1983 году. Вскоре были введены одноименные предметы в школьные и вузовские программы (кафедра информатики ГУУ начала работать в самом конце 80-х). Примерно в это же время абитуриенты начали сдавать вступительный экзамен по информатике.

По поводу появления термина «информатика» есть и другие точки зрения. Согласно одной из них научная дисциплина именно с таким названием существовала и успешно развивалась с 40-50 гг. Она исследовала структуру и общие свойства научной информации, т.е. сведений, отображающих объективные закономерности природы, общества и мышления, изучала процессы обмена научной информацией – от устного общения на конференциях до публикаций в виде научных статей или монографий. В практическом плане информатика вырабатывала способы сбора, хранения, поиска, распространения научной информации.

Есть также мнение, что информатика зародилась в рамках науки об обработке документов, основанной бельгийским ученым Полем Отле и была тесно связана с делопроизводством, библиотечным и архивным делом, книговедением и т.п. А пришедшее к нам из Франции слово не стало новым, просто его более широкое значение вытеснило старое.

Нет единства взглядов у ученых не только на историю формирования данного научного направления, но и на его предмет и место в современной системе наук.

Многие по-прежнему считают, что информатика является одним из направлений кибернетики и должна исследовать процессы передачи и обработки управленческой информации (не обязательно машинной). Другие полагают, что информатика – это область человеческой деятельности, связанная исключительно с процессами преобразования информации с помощью компьютеров.

Нам представляется более правильной вторая точка зрения. Информатика как фундаментальная наука должна заниматься разработкой методологии автоматизации информационных процессов в различных сферах деятельности, исследованием и обобщением знаний об автоматизированных информационных системах и технологиях, выявлением общих закономерностей их создания и функционирования.

Изучением же информационных процессов в более широком контексте следует заниматься в рамках отдельной дисциплины, которую, видимо правильно, называть «Информационные технологии», предметом которой должны стать любые информационные процессы вне зависимости от того, автоматизированы они или нет. Эта дисциплина должна интегрировать знания, накопленные в этой области другими науками: философией, кибернетикой, информатикой, языкознанием, лингвистикой, биологией, психологией и пр.

А теперь рассмотрим более подробно содержание основных научных подходов к понятиям информации и информационного процесса.

 

 


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.008 сек.)