|
|||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Основные проблемы искусственного интеллекта2.1. Проблема определения искусственного интеллекта Выразить суть интеллекта в каком-то одном определении представляется исключительно сложной, практически безнадежной задачей. Интеллект есть нечто ускользающее, не вмещающееся в установленные языком смысловые рамки. Некоторые специалисты за интеллект принимают способность рационального, мотивированного выбора, в условиях недостатка информации; способность решать задачи на основе символьной информации; способность к обучению и самообучению. Достаточно емкое и интересное определения интеллекта дано в Большой Советской Энциклопедии: «интеллект… в широком смысле – вся познавательная деятельность человека, в узком смысле – процессы мышления, неразрывно связанные с языком как средством общения, обмена мыслями и взаимного понимания людей». Интеллект прямо связывается с деятельностью и языком коммуникации. Известно, что в свое время А. Тьюринг предложил в качестве критерия «игру в имитацию». Согласно этому критерию, машина может быть признана мыслящей, если человек, ведя с ней диалог по достаточно широкому кругу вопросов, не сможет отличить ее ответов от ответов человека. Ученый провел эмпирический тест (далее тест Тьюринга), в котором человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор. Условием проведения теста является то, что все участники не видят друг друга. Целью данного теста является определение возможности искусственного мышления, близкого к человеческому. Рис. 2 Схема теста Тьюринга Однако мысленный эксперимент «Китайская комната» Джона Сёрля– аргумент в пользу того, что прохождение теста Тьюринга не является критерием наличия у машины подлинного процесса мышления. Единого ответа на вопрос чем является искусственный интеллект, не существует. Почти каждый автор, пишущий книгу об ИИ, отталкивается в ней от какого-либо определения. 2.2. Проблема определения задач искусственного интеллекта Следующим философским вопросом ИИ является цель создания. В принципе все, что мы делаем в практической жизни, обычно направлено на то, чтобы больше ничего не делать. Однако при достаточно высоком уровне жизни человека на первые роли выступает уже не лень, а поисковые инстинкты. Допустим, что человек сумел создать интеллект, превышающий свой собственный. Что теперь будет с человечеством? Какую роль будет играть человек? Для чего он теперь нужен? И вообще, нужно ли в принципе создание ИИ? Самым приемлемым ответом на эти вопросы является концепция «усилителя интеллекта». Например мы не могли бы предсказать погоду без компьютеров. Кроме того, человек уже давно использует усилители силы. В качестве усилителей силы нам служат автомобили, краны, электродвигатели. 2.3. Проблема безопасности Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употребившего термин "робот". Большую лепту в обсуждение данной проблемы внесли и другие писатели-фантасты. Как самые известные можно упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, а так же довольно свежее произведение — "Терминатор". Кстати, именно у Айзека Азимова можно найти самое проработанное, и принятое большинством людей решение проблемы безопасности – три закона робототехники:
2.4. Проблема выбора пути к созданию искусственного интеллекта Существуют различные подходы к построению систем ИИ - логический подход, структурный, эволюционный, имитационный и т.д. Это разделение не является историческим, когда одно мнение постепенно сменялось другим, и различные подходы и методики существуют параллельно и сегодня. Поскольку по-настоящему полноценных систем искусственного интеллекта в настоящее время нет, то нельзя и утверждать, что какой-то подход является правильным, а какой-то - нет. Логический подход. Логический подход к созданию систем искусственного интеллекта направлен на создание экспертных систем с логическими моделями баз знаний с использованием языка предикатов. Учебной моделью систем искусственного интеллекта в 1980-х годах был принят язык и система логического программирования Пролог. Базы знаний, записанные на языке Пролог, представляют наборы фактов и правил логического вывода, записанных на языке логических предикатов. Логическая модель баз знаний позволяет записывать не только конкретные сведения и данные в форме фактов на языке Пролог, но и обобщённые сведения с помощью правил и процедур логического вывода, и в том числе логических правил определения понятий, выражающих определённые знания как конкретные и обобщённые сведения. В целом исследования проблем искусственного интеллекта в рамках логического подхода направлены на создание, развитие и эксплуатацию интеллектуальных информационных систем, включая вопросы обучения студентов и школьников, а также подготовки пользователей и разработчиков таких интеллектуальных информационных систем. Структурный подход. Под структурным подходом подразумеваются попытки построения ИИ путём моделирования структуры человеческого мозга. Для моделей, построенных на основе строения человеческого мозга характерна не слишком большая выразительность, определённое распараллеливание алгоритмов и, благодаря последнему, высокая производительность параллельно реализованных НС. Для таких сетей характерно свойство - нейронные сети работают даже при условии недостаточной информации об окружающей среде, т.е. как и человек, они поставленный вопрос могут отвечать не только «да» и «нет», но и «не знаю точно, но скорее нет», «не знаю точно, но скорее да». Эволюционный подход. При построении систем ИИ по такому подходу, основное внимание уделяется построению начальной модели и правилам, по которым она (модель) может изменяться (эволюционировать). Модель может быть составлена по самым различным методам, это могут быть и НС и набор логических правил и любая другая модель. После этого мы запускаем ИИ, и он, на основании проверки моделей, отбирает самые лучшие из них, на основании которых по самым различным правилам генерируются новые модели, из которых опять выбираются самые лучшие и т. д. Эволюционных моделей, как таковых, не существует. Имитационный подход. Широко используется для построения систем ИИ также имитационный подход. Данный подход является классическим для кибернетики с одним из её базовых понятий - «чёрным ящиком». Чёрный ящик - это устройство, программный модуль или набор данных, информация о внутренней структуре и содержании которого отсутствуют, но известны спецификации входных и выходных данных. Объект, поведение которого имитируется, как раз и представляет собой такой «черный ящик». Не важно, что у него внутри и как он функционирует, главное, чтобы наша модель в аналогичных ситуациях вела себя точно так же. Таким образом моделируется другое свойство человека - способность копировать то, что делают другие, не вдаваясь в подробности, зачем это нужно. Зачастую эта способность экономит человеку массу времени, особенно в начале его жизни. К недостаткам имитационного подхода можно отнести низкую информационную способность большинства моделей, построенных с его помощью. Агентно-ориентированный подход. Последний подход, развиваемый с начала 1990-х годов, называется агентно-ориентированным подходом, или подходом, основанным на использовании интеллектуальных (рациональных) агентов. Согласно этому подходу, интеллект — это вычислительная часть (грубо говоря, планирование) способности достигать поставленных перед интеллектуальной машиной целей. Сама такая машина будет интеллектуальным агентом, воспринимающим окружающий его мир с помощью датчиков, и способной воздействовать на объекты в окружающей среде с помощью исполнительных механизмов. Этот подход акцентирует внимание на тех методах и алгоритмах, которые помогут интеллектуальному агенту выживать в окружающей среде при выполнении его задачи. Так, здесь значительно тщательнее изучаются алгоритмы поиска пути и принятия решений. Рис.3 Алгоритм поиска пути 2.5.Проблема создания искусственного интеллекта Анализ проблемы искусственного интеллекта открывает роль таких философских познавательных орудий, как категории, специфическая семиотическая система, логические структуры, ранее накопленное знание. Всё это обнаруживаются не посредством исследования физиологических или психологических механизмов познавательного процесса, но выявляется в знании, в его языковом выражении. Орудия познания, формирующиеся, в конечном счёте на основе практической деятельности, необходимы для любой системы, выполняющей функции абстрактного мышления, независимо от её конкретного материального субстрата и структуры. Поэтому, чтобы создать систему, выполняющую функции абстрактного мышления (т. е. в конечном счёте, формирующую адекватные схемы внешних действий в существенно меняющихся средах) необходимо наделить такую систему этими орудиями. Развитие систем ИИ за последние время как раз идёт по этому пути. Степень продвижения в данном направлении в отношении каждого из указанных познавательных орудий разная, но в целом пока, увы, незначительна. В наибольшей мере системы ИИ используют формально-логические структуры, что обусловлено их неспецифичностью для мышления и, в сущности, алгоритмическим характером. Это дает возможность относительно легкой их технической реализации. Но даже здесь кибернетике предстоит пройти большой путь. В системах искусственного интеллекта ещё слабо используются модальная, императивная, вопросная и иные логики, которые функционируют в человеческом интеллекте, и не менее необходимы для успешных познавательных процессов, чем давно освоенные логикой, а затем и кибернетикой формы выводов. Повышение «интеллектуального» уровня технических систем, безусловно, связано не только с расширением применяемых логических средств, но и с более интенсивным их использованием - проверка информации на непротиворечивость, конструирования планов вычислений и т. п. Сложнее обстоит дело с семиотическими системами, без которых интеллект невозможен в принципе. Языки, используемые в ЭВМ, ещё далеки от семиотических структур, которыми оперирует мышление. Прежде всего, для решения ряда задач, необходимо последовательное приближение семиотических систем, которыми наделяется ЭВМ, к естественному языку, точнее, к использованию его ограниченных фрагментов. В этом плане предпринимаются попытки наделить входные языки ЭВМ универсалиями языка, например, полисемией (которая элиминируется при обработке в лингвистическом процессоре). Уже разработаны проблемно-ориентированные фрагменты естественных языков, достаточные для решения системой ряда практических задач. Наиболее важным итогом такой работы является создание семантических языков (и их формализация), в которых слова-символы имеют определенную интерпретацию. Многие универсалии естественных языков, необходимые для выполнения ими познавательных функций, в языках ИИ пока реализованы слабо (например, открытость) или используются ограниченно (например, полисемия). Все чаще воплощение в семиотических системах универсалий естественного языка, обусловленных его познавательной функцией, выступает одной из важнейших линий совершенствования систем ИИ, особенно тех, в которых проблемная область заранее чётко не определена. Сегодня системы искусственного интеллекта способны осуществлять перевод с одномерных языков на многомерные. В частности, они могут строить диаграммы, схемы, чертежи, графы, чертить на экране кривые и т. п. ЭВМ производят и обратный перевод (описывают графики и тому подобное с помощью символов). Такого рода перевод является существенным элементом интеллектуальной деятельности. Правда современные системы ИИ пока не способны к непосредственному (без перевода на символический язык) использованию изображений или воспринимаемых сцен для «интеллектуальных» действий. Поиск путей глобального, а не локального, оперирования информацией составляет одну из важнейших и задач теории искусственного интеллекта. Воплощение в информационные массивы и программы систем ИИ аналогов категорий находится пока в начальной стадии. Например, в категории входят понятия «целое», «часть», «общее», «единичное». Они используются в ряде систем представления знаний, в частности в качестве «базовых отношений», в той мере, в какой это необходимо для тех или иных конкретных предметных или проблемных областей, с которыми взаимодействуют системы. В формализованном понятийном аппарате некоторых систем представления знаний предприняты отдельные попытки выражения некоторых моментов содержания и других категорий (например, «причина» и «следствие»). Однако ряд категорий (например, «сущность» и «явление») в языках систем представления знаний отсутствует. В целом, данная проблема разработчиками систем ИИ в полной мере ещё не осмыслена, и предстоит ещё большая работа философов, логиков и кибернетиков по внедрению аналогов категорий в системы представления знаний, и другие компоненты интеллектуальных систем. Современные системы ИИ почти не имитируют сложную иерархическую структуру образа, что не позволяет им перестраивать проблемные ситуации, комбинировать локальные части сетей знаний в блоки, перестраивать эти блоки и т. п. Не является совершенным и взаимодействие вновь поступающей информации с совокупным знанием, фиксированным в системах. В семантических сетях и фреймах, использующихся при представлении знаний, пока недостаточно используются методы, благодаря которым интеллект человека легко пополняется новой информацией, находит нужные данные, перестраивает свою систему знаний и т. п. Ещё в меньшей мере современные системы ИИ способны активно воздействовать на внешнюю среду, без чего не может; осуществляться самообучение и вообще совершенствование «интеллектуальной» деятельности. Таким образом, хотя определенные шаги к воплощению гносеологических характеристик мышления в современных системах искусственного интеллекта сделаны, но в целом эти системы ещё далеко не владеют комплексом гносеологических орудий, которыми располагает человек и которые необходимы для выполнения совокупности функций абстрактного мышления. Чем больше характеристики систем искусственного интеллекта будут приближены к гносеологическим характеристикам мышления человека, тем ближе будет их «интеллект» к интеллекту человека, точнее, тем выше будет их способность к комбинированию знаковых конструкций, воспринимаемых и интерпретируемых человеком в качестве решения задач и вообще воплощения мыслей. Поэтому возникает сложный вопрос. При анализе познавательного процесса гносеология абстрагируется от психофизиологических механизмов, посредством которых реализуется сам процесс. Но из этого не следует, что для построения систем искусственного интеллекта эти механизмы не имеют значения. Не исключено, что механизмы, необходимые для воплощения неотъемлемых характеристик интеллектуальной системы, не могут быть реализованы в цифровых машинах или даже в любой технической системе, включающей в себя только компоненты неорганической природы. Также не исключено, что хотя мы и можем познать все гносеологические закономерности, обеспечивающие выполнение человеком его познавательной функции, но их совокупность реализуема лишь в системе, субстрактно тождественной человеку. Подобный взгляд обосновывается X. Дрейфусом. «Телесная организация человека - пишет он - позволяет ему выполнять... функции, для которых нет машинных программ - таковые не только ещё не созданы, но даже не существуют в проекте... Эти функции включаются в общую способность человека к приобретению телесных умений и навыков. Благодаря этой фундаментальной способности наделенный телом субъект может существовать в окружающем его мире, не пытаясь решить невыполнимую задачу формализации всего и вся». Подчеркивание значения «телесной организации» для понимания особенностей психических процессов, в частности возможности восприятия, заслуживает отдельного внимания. Качественные различия в способности конкретных систем отражать мир тесно связаны с их структурой, которая хотя и обладает относительной самостоятельностью, но не может преодолеть некоторых рамок, заданных субстратом. В процессе биологической эволюции совершенствование свойства отражения происходило на основе усложнения нервной системы, т. е. субстрата отражения. Не исключено, что различие субстратов ЭВМ и человека может обусловить фундаментальные различия в их способности к отражению, что ряд функций человеческого интеллекта в принципе недоступен машинам. В философской литературе утверждается, что допущение возможности выполнения технической системой интеллектуальных функций человека означает сведение высшего (биологического и социального) к низшему (к системам из неорганических компонентов) и, следовательно, противоречит материалистической диалектике. Но в этом рассуждении не учитывается, что пути усложнения материи однозначно не однозначны, и не исключено, что общество имеет возможность создать из неорганических компонентов (абстрактно говоря, минуя химическую форму движения) системы не менее сложные и не менее способные к отражению, чем биологические. Созданные таким образом системы являлись бы компонентами общества, социальной формой движения. Вопрос о возможности передачи интеллектуальных функций техническим системам, и в частности о возможности наделения их рассмотренными в работе гносеологическими орудиями, не может быть решен только исходя из философских соображений. Он должен быть подвергнут анализу на базе конкретных научных исследований. X. Дрейфус подчеркивает, что ЭВМ оперирует информацией, которая не имеет значения, смысла. Для ЭВМ необходим перебор огромного числа вариантов. Телесная организация человека, его организма позволяет отличать значимое от незначимого для жизнедеятельности и вести поиск только в сфере первого. Для «не телесной» ЭВМ, утверждает Дрейфус, это недоступно. Конечно, конкретный тип организации тела позволяет человеку ограничивать пространство возможного поиска. Это происходит уже на уровне анализаторной системы. Совсем иначе обстоит дело с ЭВМ. Когда в кибернетике ставится общая задача, например распознания образов, то эта задача переводится с чувственно-наглядного уровня на абстрактный. Тем самым снимаются ограничения, не осознаваемые человеком, но содержащиеся в его «теле», в структуре органов чувств и организма в целом. Они игнорируются ЭВМ. Поэтому пространство поиска резко увеличивается. Это значит, что к «интеллекту» ЭВМ предъявляются более высокие требования (поиска в более обширном пространстве), чем к интеллекту человека, к которому приток информации ограничен физиологической структурой его тела. Обладающие психикой системы отличаются от ЭВМ прежде всего тем, что им присущи биологические потребности, обусловленные их материальным, биохимическим субстратом. Отражение внешнего мира происходит сквозь призму этих потребностей, в чём и выражается активность психической системы. ЭВМ не имеет потребностей, органически связанных с ее субстратом, для нее как таковая информация незначима, безразлична. Значимость, генетически заданная человеку, имеет два типа последствий. Первый - круг поиска сокращается, и, тем самым, облегчается решение задачи. Второй - нестираемые из памяти фундаментальные потребности организма обусловливают односторонность психической системы. Дрейфус пишет в связи с этим: «Если бы у нас на Земле очутился марсианин, ему, наверное, пришлось бы действовать в абсолютно незнакомой обстановке; задача сортировки релевантного и нерелевантного, существенного и несущественного, которая бы перед ним возникла, оказалась бы для него столь же неразрешимой, как и для цифровой машины, если, конечно, он не сумеет принять в расчет никаких человеческих устремлений». С этим можно не согласится. Если предложенный «марсианин» имеет иную биологию, чем человек, то он имеет и иной фундаментальный слой неотъемлемых потребностей, и принять ему «человеческие устремления» значительно труднее, чем ЭВМ, которая может быть запрограммирована на любую цель. Живое существо в принципе не может быть по отношению к этому фундаментальному слою перепрограммировано, хотя для некоторых целей оно может быть запрограммировано вновь, посредством дрессировки. В этом смысле потенциальные интеллектуальные возможности машины шире подобных возможностей животных. У человека же над фундаментальным слоем биологических потребностей надстраиваются социальные потребности, и информация для него не только биологически, но и социально значима. Человек универсален и с точки зрения потребностей, и с точки зрения возможностей их удовлетворения. Однако эта универсальность особо присуща ему как социальному существу, производящему средства целесообразной деятельности, в том числе и системы искусственного интеллекта. Следовательно, телесная организация не только даёт дополнительные возможности, но и создает дополнительные трудности. Поэтому интеллекту человека важно иметь на вооружении системы, свободные от его собственных телесных или иных потребностей. Конечно, от таких систем неразумно требовать, чтобы они самостоятельно распознавали образы, классифицировали их по признакам, по которым это делает человек. Цели для них необходимо задавать в явной форме. Следует отметить, что технические системы могут иметь аналог телесной организации. Развитая кибернетическая система обладает рецепторными и эффекторными придатками. Начало развитию таких систем положили интегральные промышленные роботы, в которых ЭВМ в основном выполняет функцию памяти. В роботах «третьего поколения» ЭВМ выполняет и «интеллектуальные» функции. Их взаимодействие с миром призвано совершенствовать их «интеллект». Такого рода роботы имеют «телесную организацию», конструкция их рецепторов и эффекторов содержит определенные ограничения, сокращающие пространство, в котором, образно говоря, могла бы совершать поиск цифровая машина. Тем не менее, совершенствование систем искусственного интеллекта на базе цифровых машин может иметь границы, из-за которых переход к решению интеллектуальных задач более высокого порядка, требующих учёта глобального характера переработки информации и ряда других гносеологических характеристик мышления, невозможен на дискретных машинах при сколь угодно совершенной программе. Техническая, а не только биологическая, эволюция отражающих систем оказывается связанной с изменением материального субстрата и конструкции этих систем. Такая эволюция, т. е. аппаратное усовершенствование систем искусственного интеллекта, например, через более интенсивное использование аналоговых компонентов, гибридных систем, голографии и ряда других идей, будет иметь место. При этом не исключается использование физических процессов, протекающих в мозгу, и таких, которые психика в качестве своих механизмов не использует. Наряду с этим ещё далеко не исчерпаны возможности совершенствования систем ИИ путём использования в функционировании цифровых машин гносеологических характеристик мышления, о которых речь шла выше. В последнее время при анализе проблем, связанных с ИИ, часто применяют математический аппарат нечётких множеств, идея и реализация которого принадлежит американскому математику Л.Заде. Суть подхода состоит в отказе от принципа детерминизма. Пожалуй, наиболее поразительным свойством человеческого интеллекта является способность принимать правильные решения в обстановке неполной и нечёткой информации. Построение моделей, приближенных е рассуждениям человека, и использование их в компьютерных системах будущих поколений представляет сегодня одну из важнейших проблем науки. Смещение центра исследований нечётких систем в сторону практических приложений привело к выявлению целого ряда проблем, таких, как новые архитектуры компьютеров для нечётких вычислений, элементная база нечётких компьютеров и контроллеров, инструментальные средства разработки, инженерные методы расчёта и разработки нечётких систем управления и многое другое. Математическая теория нечётких множеств, предложенная Л.Заде около тридцати лет назад, позволяет описывать нечёткие понятия и знания, оперировать этими знаниями и делать нечёткие выводы. Основанные на этой теории методы построения компьютерных нечетких систем существенно расширяют области применения компьютеров. Нечёткое управление является одной из самых активных и результативных областей исследований применения теории нечётких множеств. Нечёткое управление оказывается особенно полезным, когда технологические процессы являются слишком сложными для анализа с помощью общепринятых количественных методов, или когда доступные источники информации интерпретируются неточно или неопределенно. Экспериментально показано, что нечёткое управление дает лучшие результаты, по сравнению с получаемыми, при общепринятых алгоритмах управления. Нечеткая логика, на которой основано нечеткое управление, ближе к человеческому мышлению и естественным языкам, чем традиционные логические системы.
3. Применени е
Некоторые из самых известных ИИ-систем: o Deep Blue — победил чемпиона мира по шахматам. Матч Каспаров против суперЭВМ не принёс удовлетворения ни компьютерщикам, ни шахматистам, и система не была признана Каспаровым (подробнее см. Человек против компьютера). Затем линия суперкомпьютеров IBM проявилась в проектах brute force BluGene (молекулярное моделирование) и моделирование системы пирамидальных клеток в швейцарском центре Blue Brain. o Watson — перспективная разработка IBM, способная воспринимать человеческую речь и производить вероятностный поиск, с применением большого количества алгоритмов. Для демонстрации работы Watson принял участие в американской игре «Jeopardy!», аналога «Своей игры» в России, где системе удалось выиграть в обеих играх. o MYCIN — одна из ранних экспертных систем, которая могла диагностировать небольшой набор заболеваний, причем часто так же точно, как и доктора. o 20Q — проект, основанный на идеях ИИ, по мотивам классической игры «20 вопросов». Стал очень популярен после появления в Интернете на сайте 20q.net. Банки применяют системы искусственного интеллекта (СИИ) в страховой деятельности (актуарная математика), при игре на бирже и управлении собственностью. Методы распознавания образов (включая, как более сложные и специализированные, так и нейронные сети) широко используют при оптическом и акустическом распознавании (в том числе текста и речи), медицинской диагностике, спам-фильтрах, в системах ПВО (определение целей), а также для обеспечения ряда других задач национальной безопасности. Разработчики компьютерных игр применяют ИИ в той или иной степени проработанности. Это образует понятие «Игровой искусственный интеллект». Стандартными задачами ИИ в играх являются нахождение пути в двумерном или трёхмерном пространстве, имитация поведения боевой единицы, расчёт верной экономической стратегии и так далее.
Рис.4 ASIMO — Интеллектуальный робот фирмы Honda Заключение Развитие информационной техники позволило компенсировать человеку психофизиологическую ограниченность своего организма в ряде направлений.
Список использованной литературы 1. http://referatwork.ru/refs/source/ref-11877.html 2. http://xreferat.ru/33/4831-1-problemy-iskusstvennogo-intellekta.html 3. http://ru.wikipedia.org/wiki/A.I.
Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.01 сек.) |