|
||||||||||||||||||||||||||||||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Информатика как наука. Информатика – комплексная техническая наука, которая систематизирует приёмы создания, сохранения, воспроизведенияЛекция №1 Информатика – комплексная техническая наука, которая систематизирует приёмы создания, сохранения, воспроизведения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими. Предметы информатики как науки составляют: · Аппаратное обеспечение вычислительных средств; · Программное обеспечение вычислительных средств; · Средства взаимодействия человека с аппаратными и программными средствами. Средства взаимодействия в информатике принято называть интерфейсом. Средства взаимодействия аппаратного и программного обеспечения называют программно-аппаратным интерфейсом, а средства взаимодействия человека с программными и аппаратными средствами – интерфейсом пользователя.
Технические средства – компьютеры, связанные с ними периферийные устройства и линии связи, то есть те материальные ресурсы, с помощью которых происходит преобразование информации. Программные средства (ПО) – операционные системы, интегрированные оболочки, системы программирования и проектирования программных продуктов, различные прикладные пакеты. Математические методы модели, алгоритмы - базис, который положен в основу проектирования и изготовления любого программного или технического средства. Отрасль производства – занимается практическим использованием ресурсов и исследованием информатики, как фундаментальной науки. Фундаментальная наука – подразумевает собой разработку абстрактных методов, моделей и алгоритмов, а так же связных с ними математических теорий. Её направлением является исследование процессов преобразования информации и на основе этих исследований разработка соответствующих теорий, методов, моделей и алгоритмов, которые затем применяются на практике. Практическая дисциплина – занимается подготовкой специалистов в области преобразования информации и методологией разработки конкретных информационных технологий и систем, так же изучает закономерности протекания информационных процессов в конкретных областях. Основой знаний информатики как науки является систематизация приёмов и методов работы с аппаратными и программными средствами вычислительной техники. Цель систематизации состоит в том. Чтобы выделять, внедрять и развивать передовые эффективные технологии автоматизации работы с данными, а так же обеспечивать новые технологии исследования.
Практическая информатика – основными направлениями являются: 1) Архитектура вычислительных систем (приёмы и методы построения систем, предназначенных для автоматической обработки данных); 2) Интерфейсы вычислительных систем (приёмы и методы управления аппаратным и программным обеспечением); 3) Программирование (приёмы, методы и средства разработки комплексных задач); 4) Преобразование данных (приёмы, методы и средства преобразования структур данных); 5) Защита информации (обобщение приёмов, разработка методов и средств защиты информации); 6) Автоматизация (функционирование программно-аппаратных средств без участия человека); 7) Стандартизация (обеспечение совместимости между аппаратными и программными методами, а так же между формами представления данных, относящихся к разным типам вычислительных систем). Теоретическая информатика – основана на теории информации. Теория информации – наука о проблемах сбора, преобразования, передачи, хранения, обработки и отображения информации. Теория информации базируется на методах теории вероятности, математической статистики, линейной алгебры и других разделах математики. В основном используется: 1) Для анализа процессов в различных информационных системах, то есть системах, основой функционирования которых является процесс преобразования информации; 2) В компьютерной технике для оценки быстродействия, точности и надёжности систем сжатия и защиты информации, согласования сигналов и каналов в компьютерных сетях передачи данных. Родоначальником теории информации считается Клод Шеннон. Его теория изначально понималась как строго математическая задача в статистике и давала инженерам средства передачи информации. В частности, путь к определению ёмкости информационного канала в терминах количества бит. Информация – совокупность сведений и данных, которые воспринимаются из окружающей среды (определяется как входящая информация), выдаются в окружающую среду или сохраняются внутри определённой системы. Определяясь на это определение, с информацией всегда связывают три понятия: 1) Источник информации – тот элемент окружающего мира, сведения о котором являются объектом преобразования; 2) Потребитель информации – элемент окружающего мира, который использует информацию; 3) Сигнал – материальный носитель, который фиксирует информацию для переноса её от источника к потребителю. Свойства информации: 1) Объективность или субъективность; 2) Простота; 3) Достоверность; 4) Адекватность; 5) Доступность; 6) Актуальность; Различают две формы представлении информации: 1) Непрерывная; 2) Дискретная. Виды информационных процессов: Сигнал называется дискретным, если его параметр в заданных пределах, может принимать отдельные фиксированные значения. Сигнал называется непрерывным, если его параметр в заданных пределах может принимать любые промежуточные значения. Различают непрерывность или дискретность по уровню и по времени. 1) Непрерывный по уровню и по времени: х
t 2) Дискретный по уровню и непрерывный по времени: x
t
3) Непрерывный по уровню и дискретный по времени: х
t 4) Дискретный по уровню и по времени: х
t Количество информации – числовая характеристика сигнала, отображает ту степень неопределённости, которая исчезает после получения сообщения в виде данного сигнала, эту меру неопределённости в теории информации называют «энтропией». Минимальная единица измерения количества информации – бит. Байт – 8 бит. Максимальная единица измерения не существует. Связь между количеством информации и числом состояний системы. I – количество информации в битах; N – количество возможных состояний. Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.009 сек.) |