АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Методы поиска и обмена информацией в глобальных компьютерных сетях

Читайте также:
  1. g) процесс управления информацией.
  2. I. Методы выбора инновационной политики
  3. II. Методы прогнозирования и поиска идей
  4. Административные методы управления
  5. Административные методы управления природопользованием и охраной окружающей среды.
  6. Анализ воспитательного потенциала семьи. Методы изучения семьи.
  7. Анализ результатов теста. Стили и методы семейного воспитания
  8. Антропогенные воздействия на гидросферу и их экологические последствия. Методы защиты гидросферы.
  9. Базовые методы реанимации
  10. Бальнеологические методы лечения
  11. Биологические методы.
  12. БИОФИЗИКА ТРАНСКАПИЛЛЯРНОГО ОБМЕНА

Поиск и обмен информацией в глобальных и локальных компьютерных сетях

Методы поиска и обмена информацией в глобальных компьютерных сетях

Информационный поиск

Само понятие информационного поиска появилось только в середине 20 века. В основе этого понятия лежит представление о том, что поиск необходимой информации в любом собрании документов невозможен путем прочтения или даже беглого просмотра текстов всех документов этого собрания.

Прочтение полного текста документа заменяется просмотром заглавий, аннотаций, рефератов. Документы пришлось систематизировать по содержанию, которое условно стали обозначать индексами (буквами или цифрами). Систематизация по разделам наук – один из первых способов раскрытия содержания документа.

С увеличением объемов документов ввели алфавитно-предметную классификацию.

До середины 20 века в библиотеках, в основном, ограничивались тремя способами: систематическим, предметным и алфавитным. В 50-года сформировалось само понятие информационного поиска.

Информационный поиск – это совокупность логических процедур, в результате которых в ответ на информационный запрос выдается:

- необходимая информация;

- документы, в которых она находится;

- библиографические адреса этих документов.

Информационный поиск реализуется с помощью информационно-поисковой системы, которая в абстрактном виде должна состоять из информационно-поискового языка, правил перевода на этот язык и критерия смыслового соответствия, определяющего объем выдачи документов или информации (критерий выдачи).

Состав и принципы работы поисковой системы

В России основной поисковой системой является «Яндекс», Google.ru, Mail.ru. Причем, на данный момент, Mail.ru использует механизм и базу поиска «Яндекса».

Практически все крупные поисковые системы имеют свою собственную структуру, отличную от других. Однако можно выделить общие для всех поисковых машин основные компоненты. Различия в структуре могут быть лишь в виде реализации механизмов взаимодействия этих компонентов.

Модуль индексирования

Модуль индексирования состоит из трех вспомогательных программ (роботов):

Spider (паук) – программа, предназначенная для скачивания веб-страниц. «Паук» обеспечивает скачивание страницы и извлекает все внутренние ссылки с этой страницы. Скачивается html-код каждой страницы. Для скачивания страниц роботы используют протоколы HTTP. Работает «паук» следующим образом. Робот на сервер передает запрос “get/path/document” и некоторые другие команды HTTP-запроса. В ответ робот получает текстовый поток, содержащий служебную информацию и непосредственно сам документ.

Ссылки извлекаются из тэгов a, area, base, frame, frameset, и др. Наряду со ссылками, многими роботами обрабатываются редиректы (перенаправления). Каждая скачанная страница сохраняется в следующем формате:

  • URL страницы
  • дата, когда страница была скачана
  • http-заголовок ответа сервера
  • тело страницы (html-код)

Crawler («путешествующий» паук) – программа, которая автоматически проходит по всем ссылкам, найденным на странице. Выделяет все ссылки, присутствующие на странице. Его задача - определить, куда дальше должен идти паук, основываясь на ссылках или исходя из заранее заданного списка адресов. Crawler, следуя по найденным ссылкам, осуществляет поиск новых документов, еще неизвестных поисковой системе.

Indexer (робот- индексатор) - программа, которая анализирует веб-страницы, скаченные пауками. Индексатор разбирает страницу на составные части и анализирует их, применяя собственные лексические и морфологические алгоритмы. Анализу подвергаются различные элементы страницы, такие как текст, заголовки, ссылки структурные и стилевые особенности, специальные служебные html-теги и т.д.

Таким образом, модуль индексирования позволяет обходить по ссылкам заданное множество ресурсов, скачивать встречающиеся страницы, извлекать ссылки на новые страницы из получаемых документов и производить полный анализ этих документов.
http://ru.wikipedia.org/wiki/Поисковый_робот

http://download.yandex.ru/company/iworld-3.pdf
http://wiki.liveinternet.ru/IR/InvertirovannyjjFajjl


1 | 2 | 3 | 4 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.004 сек.)