|
|||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Общие понятия и терминология
Чтобы понять сущность кибернетики больших систем управления, нам неизбежно придется порвать с общим стилем мышления, использованным в гл.1. Если существуют принципы управления, то следует начать с их точного определения. Это будет сделано исходя из того, что общие понятия и терминология, известные в классической науке управления, мало чем нам помогут. Следовательно, в этой главе начнется обсуждение систем и управления ими на новом языке, без особых ссылок на деятельность фирм. Идея сводится к тому, чтобы сесть и подумать всерьез. Что такое, собственно говоря, управление? Первый принцип управления сводится к тому, что управляющий является частью управляемойим системы. Управляющий не является человеком, посаженным над системой высшей властью, который в дальнейшем реализует свои полномочия. В любой системе, говорим ли мы о популяции животных или внутренних функциях живого организма, функции управления распределены по всей ее архитектуре. Управление совершенно невозможно отделить от организма, но его существование вытекает из поведения самой системы. Более того, управление совершенствуется с ростом системы, и если оглянуться на историю, то станет видно, что и управляющий развивался вместе с системой. По этой причине лучше спрашивать о том, как система узнает о себе и своем состоянии, чем спрашивать, как то же самое узнает управляющий. Я полагаю, что нам не следует рисковать, отождествляя систему с личностью или с чем-то другим, лучше принять за систему те границы, в которых ее различает обозреватель. Будем далее определять состояние системы по ее поведению, т.е. выделять в поведении то, что можно считать типичным для любой действующей системы. Примем систему как данное. Определим набор частей как систему, поскольку все ее части выступают как действующие в единстве. Примем обычную деятельность системы за примерное отображение ее естественной динамики. Иначе говоря, рассмотрим тот случай, когда части системы действуют типичным образом. Далее посмотрим, что произойдет, если мы вмешаемся — воткнем палку в систему, прикрикнем на нее или изменим температуру ее окружающей среды. Если система как-то ответит на эти стимулы, то можно сказать, что это действующая система. Заметьте, нам не нужно говорить, что система реагирует на стимулы, поскольку это требует целенаправленных действий по отношению к окружающему миру. Все, что мы узнали из этого эксперимента, сводится к тому, что система чувствует вмешательство в нее. Это различие очень важно. Подобное объяснение вызывает новый вопрос: что считать ответом на стимулы? Если мы вмешаемся в работу автомобильного двигателя, выключив зажигание, то будет ли верным заявить, что система реагировала остановом? Нет, поскольку мы разрушили динамическую систему, изучаемую нами, а не внесли в нее стимулы. Если мы выстрелом ранили животное, оно умрет по той же причине. В равной мере если мы бросили спичку на блок цилиндров автомобильного мотора или на спину слону, то ничего не произойдет. На этот раз потому, что наше вмешательство нельзя признать стимулом. Нетрудно уловить смысл сказанного. Ясно, что за стимул следует принимать такое вмешательство, которое так или иначе отразится на действиях системы, будучи не слишком незначительным, чтобы не отразиться на ее деятельности, и не слишком сильным, чтобы ее разрушить. За реакцию системы примем некоторое ее изменение, имеющее смысл только результата воздействия использованного стимула. Если система изменится произвольно при введении в нее того, что мы приняли за стимул, то, вероятно, какие-то изменения последуют. Кот, не покинувший комнату после того как он увидел плакат "Поди прочь", не отреагировал на содержание надписи, и, следовательно, по нашему определению, для него такой плакат не является стимулом. Но мы вполне можем натренировать кота покидать комнату всякий раз, когда он увидит этот плакат. Если он станет всякий раз убегать из комнаты, то нам придется оставить идею о случайном совпадении и говорить о его реакции на стимул, т.е. о коте как о действующей системе. Из этого рассуждения вытекает несколько важных принципов управления. Стимулом является то, что изменяет работу системы. Реакция системы есть ее действие, которое должно интерпретироваться в качестве следствия стимулов. В общем, это означает, что система избегает стимулов или как-то по-другому противодействует стимулам, нарушающим ее деятельность, и воспринимает или стремится усилить стимулы, способствующие ее деятельности. Заметим, что мы считаем очевидным, что наблюдаемые нами действия системы не являются случайными. Такое суждение зависит от того, насколько сильно влияет вмешательство на качественные показатели системы (что может ввести в заблуждение) или на высоконадежные показатели их повторяемости (это является научным критерием). Система, подтверждающая такое ее поведение, является действенной, по крайней мере до известной степени. Если она подтверждает такое свое поведение при всех обстоятельствах, мы будем называть ее действующей без всякого сомнения или оговорок. Это не будет безнадежно антинаучным суждением, поскольку вселенная подчиняется вероятностным, а не абсолютным законам. В физике, генетике, общественных науках мы полагаемся на описания и даже на законы, которые основаны на равной вероятности случайностей. Только в специальных или искусственно созданных областях, таких как теоретическая механика, эффект следует за причиной детерминированно и считается совершенно неизбежным. Но даже здесь бывают исключения. В общем, мы утверждаем, что реакция действующих систем на стимулы бывает либо негативной, либо позитивной. В первом случае система склонна избегать враждебных ей стимулов, во втором — усиливать благоприятные. Из этого следует, что действующая система в известном смысле обладает возможностью судить о том, что к чему. Необходимо с осторожностью подходить к пониманию этого вывода Действенность по-прежнему не эквивалентна самосознанию; система не обязана судить о важности стимулов. Все, что ей нужно, так это механизм, регистрирующий полезность или вредность стимулов, но эти термины в данном случае не несут этической нагрузки. Если система обладает критерием устойчивой работы, она может быть организована для работы по благоприятному для нее критерию. Мы с самого начала заявляли: "Возьмите некоторое обычное действие в качестве типичного для естественной динамики системы" — в этом и заключается ключ к пониманию управления. Системы существуют, и они работают; если нет, то они не системы. Управление есть то, что способствует существованию и работе систем. Мы говорили и раньше, что быть действующей и воспринимать стимулы — две разные вещи. Посмотрим теперь, почему. Так происходит потому, что критерием хорошей работы является критерий, основанный на внутренней стабильности. Можно предположить, что стимулы появляются из внешней среды, окружающей систему; неразумные системы этого не знают, разумные системы либо сами делают такое заключение, либо предчувствуют подобный факт. Но даже в таком случае для обеих систем управляющее действие является ответом на внутреннее изменение, после того как система так или иначе его зарегистрировала. Мы отстраняемся от боли — это психологический факт, как и съеживаемся при виде шприца или приближения горящей сигареты — интеллектуальная конструкция. В действительности мы съеживаемся от предчувствия боли, от предчувствия, существующего внутри нас, поскольку боль может испортить наше внутреннее состояние. Мы съеживаемся до того, как почувствовали боль, поскольку видим приближающуюся опасность и просто понимаем последствия такой опасности как прогноз внутренних событий. Так происходит потому, что мы — (усовершенствованная) обучающаяся система. Если бы мы не научились связывать события с их внутренними для нас последствиями, то мы бы не съеживались заранее. Типично, что наши представления об управлении довольно путаны, поскольку мы сами — системы весьма совершенные и знаем о себе очень много. Мы научились различать стимулы, классифицировать их, поэтому мы, как и следовало ожидать, реагируем на стимулы скорее, чем на стимулирование. Так мы пришли к совершенно неверному заключению: системы могут знать, как отвечать только на те стимулы, о которых они знают заранее, и их классифицировать. Конечно, нам возразят, что инженер не может создать машину или какую-либо конструкцию, защищенную от неизвестных, непредвиденных помех, но может создать защищенную только от тех, которые указаны заранее. Нам говорят, что мы должны определить, что считается стабильной работой машины, а затем перечислить по порядку помехи, которые считаются нарушающими стабильность ее работы. Тогда и только тогда мы будем в состоянии создать или запрограммировать систему, которая "правильно" воспримет помеху в ее работе. Все это неверно. То, в чем действительно нуждается система, и это все, в чем она нуждается, так это в способе измерения ее собственной внутренней тенденции отклоняться от стабильного состояния, а также в наборе правил проведения экспериментальной проверки ее реакций, которые возвращают ее к внутреннему равновесию. Следовательно, нет нужды знать наперед, что вызовет нарушение работы системы, как нет нужды знать, что ее нарушило. Вполне достаточно быть уверенным в том, что что-то случилось, классифицировать это нарушение и быть в состоянии изменить внутреннее состояние так, чтобы нарушение исчезло. Система, которая может выполнить это, которая может справиться со случайным и непредвиденным вмешательством, известна в кибернетике как сверхстабильная система (по классификации Эшби). Например, можно представить себе устойчиво работающий компьютер, который в случае пожара в здании будет продолжать отщелкивать цифры, даже когда начнут плавиться его части. Можно подумать, что для защиты от подобного риска конструктор должен установить температурные датчики. Ничего подобного. Любой ультраустойчивый компьютер должен обнаруживать не пожар (обходиться без термометров), а "нарушение работы", поскольку внутреннее контрольное устройство должно показывать, что счет стал неверен. Компьютеру тогда следовало бы привести в движение свои колеса и просто покинуть горящее здание. В таком случае люди могут подумать, что компьютер в состоянии "почуять" пожар, и вновь ошибутся. Разумное поведение часто основывается на простых механизмах, вроде только что упомянутого, которые вводят нас в заблуждение, заставляя думать, что они основаны на более глубоком понимании обстоятельств. Простейшая версия управляющего устройства, управляющей функции системы, которую можно себе представить, выглядит тогда так, как показано на рис.6. Сенсорное устройство (прямоугольник на рис.6.), входящее в систему, может регистрировать наличие стимулов и классифицировать их. Управляющее устройство в нем должно либо усиливать (+), либо уменьшать (-) действие стимулов в зависимости от того, помогают они деятельности системы в целом или нарушают ее. Для этого они включают и заставляют срабатывать точки А или В, которые далее предпринимают действия в зависимости от характера стимулов. Чтобы выбрать положение переключателя (точкуА или В), управляющее устройство должно сравнить ожидаемый результат эффекта своего выбора по критерию стабильности системы. Его простейшая стратегия для этого заключается в том, чтобы двинуться немного в сторону уменьшения, а затем немного в сторону усиления стимула, сопоставить получаемые результаты по своим критериям и затем твердо установить переключатель. Если система будет экспериментировать слишком долго, то она начнет раскачиваться. В технике это называется рысканием, в психологии — атаксией. Все системы подвержены этой болезни. Если таково простейшее устройство управления, то теперь следует убедиться в том, что мы достаточно глубоко понимаем это, и овладеть основной терминологией, обходимой для ее изучения. Стимулы,как было показано, возникают вне системы. Стимул может возникнуть и по внутренним причинам, но наше утверждение сохраняет силу — должно быть устройство, регистрирующее, что что-то произошло, и переводить происшедшее, каким бы оно ни было, в термины, имеющие смысл для управляющего устройства. Такое устройство есть часть системы — оно является не стимулом, а тем, что его обнаруживает. Оно называется преобразователем, т.е. устройством, которое следит за стимулами для всей системы (оно помечено на рис.6 в круге крестом). В систему, вероятно, входит один сенсориум, одно сенсорное устройство, но много преобразователей. Фактически, основная классификация стимулов происходит в самом начале и сводится к тому, чтобы разобраться, какой из преобразователей стимулировался. Когда преобразователь сработал, сообщение о стимуле поступило в систему. Канал, по которому сообщение о стимулах поступает в систему, называется сенсорным каналом ввода. Эти сообщения являются сенсорными входными данными. Другая половина цепи управления, ее замыкающая, является моторным каналом выхода (МОС). Соответствующий "мотор" связан с выходом, потому что выходные данные имеют смысл постольку, поскольку выходной сигнал вызывает действия. Например, в психологии нервы, представляющие выходные каналы, как говорят, передают "эффекторные" импульсы [которые могут быть стимулирующими либо ингибиторными (подавляющими): или +, или -], тогда как сенсорный выход является "аффекторным". Таким образом, моторный выход ведет к эффектам (пустая цепь на рис.6), способности действовать в зависимости от стимулов. В простом случае один из них побуждает систему действовать согласно стимулам, другой — избавляться от них. Тогда, заметьте, пожалуйста, системе безразлично, что собственно вмешивается в нее. Действующие в реальной жизни системы управления, конечно, намного богаче; масса импульсов пробегает через огромное число входных и выходных каналов. Это справедливо как в отношении организма человека, так и в отношении управленческих ситуаций. Этот факт не меняет базовой структуры сенсорных и моторных узлов в цепи управления; однако при рассмотрении операций переключения, которые подготавливают решения, мы должны принимать во внимание то, что в больших комплексных системах этот процесс никогда не сводится к столь простому переключению, как в нашей схеме (рис.6.). В частном случае управления техническими средствами такая процедура переключения вполне понятна. Закономерность, отображающая такую процедуру, известна как функция преобразования, поскольку она математически указывает, какого сорта преобразования происходят между сенсорными и моторными узлами в цепи управления. Функция преобразования математически описывается дифференциальным уравнением и может быть весьма сложной. Сложность возникает потому, что характер реакции системы часто определяется диапазоном стимулирования, вызванного данным стимулом или частотой, с которой происходит стимулирование. В живых системах управления самым наглядным примером осуществления функции преобразования является деятельность нейрона или отдельной нервной клетки. Как утверждает Маккулох, функция преобразования в этом случае будет весьма сложной и описывается нелинейным дифференциальным уравнением восьмого порядка. Мозг человека состоит, вероятно, из 10 000 000 000 нейронов, и, насколько мы знаем, нет двух из них, функции преобразования которых были бы одинаковы. Мы столкнемся с проблемой именно такого порядка при обсуждении функции преобразования руководителя. Решение, принимаемое в деловом мире, может касаться десятка руководителей, но это просто в сравнении с несколькими тысячами нейронов, функцию преобразования, управляющую нейронами, совершенно невозможно составить (если бы в этом было дело), поскольку она есть некоторая сумма взаимодействующих нейронов мозга. И нам это известно. Дальнейшее еще сложнее. При рассмотрении управления системой я целом, что является нашей конечной целью, мы вполне можем столкнуться с тем, что не удастся даже опознать отдельные входные и выходные каналы, а удастся идентифицировать лишьих целые связки Еще меньше наши возможности в отношении идентификации индивидуальных переключателей, преобразующие функции которых по этой причине не могут быть исследованы и еще менее могут быть измерены. Тому есть существенные причины, обусловленные физиологическими структурами, такими как нервная система, и в социальных структурах, таких как корпорации и фирмы. В подобных случаях сенсорные входные данные поступают в сенсориум распределенно, а триггеры моторных действий тоже распределены широко и достаточно плотно не только по всей периферии системы, но и между точками А и В, о которых мы ранее упомянули. Проблема переключения, следовательно, охватывает весь набор входящих и весь набор выходящих импульсов. Следовательно, вместо одного переключателя между ними необходимо иметь сложную соединительную сеть. Такая сеть называется по латыни reticulum (сеточка, сетчатое образование), а ее кибернетический вариант называется anastomotic. Это указывает на тот факт, что множество ветвей такой сети взаимодействуют целесообразно, но невозможно разобраться в том, как поступает сигнал в ретикулум. Этот термин просто означает что каналы вывода заканчиваются как дельта реки — множество потоков вливается в море и такие потоки, кроме того, часто переплетаются один с другим. Нет никакой возможности проследить, каким путем данная пригоршня воды попадает в море, как нет способа указать на то, из какого протока или источника она туда поступает. Весьма важно усвоить это замечание об анастомотик ретикулум, поскольку процесс принятия решения как в организме человека, так и в сообществе руководителей осуществляется именно так. Мы видим информацию, которая была получена, видим предпринятые действия, эффекторные и аффекторные каналы, через которые эти меры осуществлялись, и только. В этих условиях разумно перейти к электрической модели и попытаться построить систему переключателей, лежащую в основе цепи принятия решений. Более того, при рассмотрении рис.6 казалось разумным представить эти соединения как переключатели (А и В). Так можно было поступить, поскольку мы рассматривали простейший случай. Без сомнения, бывают простые случаи и в управлении, когда управляющий, отвечая по телефону, говорит, что следует взять курс А или В — решение принято, и он кладет трубку. В подобных случаях функция преобразования может быть выражена через минимизацию стоимости решения. Но это тривиальный случай. Обычно также трудно сказать, какие внутренние причины повлияют на группу руководителей, принимающих решение о том, как проследить путь воды в дельте реки. Поэтому, чтобы сделать модель более реальной, мы должны видоизменить главную цепь (рис.6) и представить ее, как показано на рис.7 Рис.7 Применительно к этому новому варианту модели важно подчеркнуть следующее: стимулы возбуждают целую колонию входных преобразователей или сенсоров, а реакция системы осуществляется через целую колонию выходных преобразователей (или эффекторов). Оба этих набора преобразователей служат передатчиками импульсов через множество каналов. Сенсориум и связанный с ним переключатель заменены своего рода коробкой, имеющей сенсорную панель сзади и моторную панель спереди. Эти панели соединены своеобразной сетью переключающей системы, которую мы назвали анастомотик ретикулум. Все сказанное в этой главе до сих пор касалось управления большими комплексными системами исходя из первых принципов, хотя введенные термины имели явно биологический оттенок. Был упомянут также инженер-автоматчик, но в основном с тем, чтобы сказать, что он не в состоянии чем-то помочь нам! Однако теперь он снова выступает на авансцену, чтобы ввести новый термин — важнейшую концепцию из всех — обратную связь. Прежде всего заметим, что было бы ошибкой принять связь между стимулом и ответной реакцией за систему обратной связи. Этот термин стал настолько вольно использоваться в ряде мест, что почти всякая реакция на любое действие принимается за обратную связь. Содержание этого термина следует вскрыть с известной осторожностью, поскольку он относится к фундаментальным понятиям кибернетики. Для его объяснения нам придется привести небольшое математическое описание в самой общей форме в надежде на то, что это поможет правильно понять термин даже читателям, далеким от математики. В системе есть входные и выходные сигналы. То, что происходит внутри системы и превращает первое во второе, уже было названо преобразованием и описывается функцией преобразования. В технике управления, как говорилось, функция преобразования описывается дифференциальным уравнением, которое определяет скорость преобразования во времени входных величин в выходные. Оператор в этом преобразовании обычно обозначается буквой "р". Нет необходимости детализировать это уравнение, достаточно упомянуть, что оно в общем является функцией оператора р. Как говорилось ранее, функция преобразования нейрона может быть достаточно хорошо описана нелинейным дифференциальным уравнением восьмого порядка, однако ее тоже можно записать как f (p). Беда в том, конечно, что хотя и можно ее так записать, в действительности мы ее не знаем. Трудность здесь точно такая же, как в заявлении "пусть х есть число жителей в данном городе". Далее мы свободно пользуемся параметром х в наших расчетах, и, по-видимому, можно было бы подсчитать число семей в городе как функцию от х, но рано или поздно нам придется выяснить, что же стоит за числом х. В технике управления существуют методы точного определения дифференциального уравнения функции f (p). Прежде всего она устанавливает связь между входной и выходной величинами. Это означает, что мы можем определить f (p) = o/i, где i — входная переменная; о — выходная переменная величина. Когда дело идет об электрических цепях управления, входная и выходная величины поддаются непосредственному измерению. Более того, если можно построить график зависимости выходной величины от входной во всем диапазоне их изменений, то можно с уверенностью считать наличие зависимости между ними. Функция преобразования и есть уравнение, описывающее такую зависимость. Она может быть очень сложной, но ее можно найти, особенно потому, что мы обычно располагаем множеством доступной информации относительно переключателей и цепей, из которых состоит изучаемая система. Знание структуры системы позволяет математикам предсказывать вид требуемого в данном случае уравнения. Найти значение f (p) в типичной кибернетической ситуации может оказаться невозможным. Как мы уже видели, трудно и отчасти, может быть, лишено смысла принимать что-то за входную или за выходную величину в физиологических, социальных и управленческих ситуациях. Может оказаться невозможным выделить, и тем более измерить, интересующие нас переменные. Тогда нам никак не удастся получить зависимость переменных на выходе от переменных на входе. А если структура цепи, как говорилось, представляет собой анастомотик ретикулум, то трудно сформировать какую-либо математическую гипотезу относительно формы, соответствующей данной функции преобразования. Однако мы должны вернуться к инженеру-автоматчику и его сервомеханизму, как называется его прибор управления. Инженер знает входную, выходную переменные и функцию преобразования для своей системы. Стоящая перед ним задача сводится к следующему: выходной результат системы может не полностью соответствовать тому, который ему нужен. Предположим, например, что при устойчивой входной переменной функция преобразования дает устойчивую выходную переменную, которая точно соответствует желаемой. Пусть теперь входная переменная начнет регулярно изменяться — что произойдет с выходной величиной? Она может следовать за входной, поскольку предполагалось, что выходная величина должна быть постоянной. Хуже того, выходная величина, будучи поданной на вход, может усиливать колебания в системе и дать сильное раскачивание, опасное для следующей системы, выходная величина данной системы для которой является ее входной величиной. Что бы ни случилось, во всяком случае, можно измерить текущие изменения значений переменной на выходе и сравнить их с ожидаемыми. Полученные при таком измерении результаты выявят отклонения системы от нормы. Именно такие измеренные величины, которые могут быть несколько видоизменены, подаются обратно с целью регулировки входной величины так, чтобы при существующей функции преобразования была сформирована правильная выходная величина. Представим себе такой простой цифровой пример: пусть функция преобразования удваивает входную величину. Пусть в данный момент значение на входе равно 3, тогда на входе будет 6, а 6 и есть то, что мы хотим. Представим теперь, что по неизвестной нам заранее причине значение на выходе внезапно стало равным 8. Тогда отклонение на 2 будет воспринято как изменение значения на выходе, а отсюда следует, что значение на входе по той или иной причине по своему эффекту стало равно 4. Цепь обратной связи воспримет как свою входную величину отклонение выходной величины (на 2 единицы) и теперь должна сработать при таком его значении. Если она просто направит обратно отклонение в 2 единицы как поправку на вход в систему, то теперь при его, как мы помним, значении, равном 4, на входе останется только 2. Функция преобразования его удвоит, и новое значение на выходе станет равным 4 вместо 6. Ясно, что цепь обратной связи нуждается в своей собственной функции преобразования, которая снизит первичное отклонение выходной величины с 2 до 1 и заставит первичное отклонение на входе снизиться на это значение. Тогда выходное значение системы возвратится к требуемой цифре б, поскольку входная величина теперь исправлена на 3. Этот пример хорошо демонстрирует механизм действия отрицательной обратной связи, исправляющей ошибку, но он с дефектом. Мы заморозили систему, чтобы рассмотреть фактические показатели, а затем позволили ей работать снова на конечном интервале времени, необходимом для срабатывания обратной связи. Однако причиной всех неприятностей является неожиданное изменение входного сигнала, и, вероятнее всего, он изменится снова к моменту проведения корректирующих действий. Тогда то, что произойдет за время отклонения и введения в систему обратной связи, сложнее, чем просто изменение на обратное значение первичной функции преобразования. Если бы это была единичная операция, то легко было бы видеть, что систематическое изменение входной величины, которое происходит в фазе с временным циклом обратной связи, будет не подавлено, а усилено. Наш механизм обратной связи обнаружит первичное отклонение+ 2, и снижение входной величины на единицу последует точно в момент, когда на входе будет импульс, приводящий в результате к отклонению на -2. Иначе говоря, на входе останется величина 2, что генерирует 4 скорее, чем 6. Тут начнет действовать обратная связь, считывающая первое (позитивное) отклонение, и снизит входное значение с 2 до 1. Теперь на выходе останется 2 вместо 6, что еще хуже. Из этого следует, что в цепи обратной связи должна быть обеспечена своя собственная функция преобразования, которая может быть записана как F(p), и она должна быть умно реализована, чтобы скорее подавлять, чем усиливать флуктуации на входе. Допустим, что так или иначе это может быть сделано и мы получим тот впечатляющий результат, которого добиваемся — саморегулирующий механизм, в основе действия которого лежит не причина нарушения, а производимый ею эффект. Дело в том, что причиной отклонения может быть или изменение температуры (а в системе не предусмотрено ее обнаружение), или нарушение соединения (которое не предполагалось), или отказ в другой системе, генерирующей входную величину для данной системы (о которой система "ничего не знает"). Для нас важно, чтобы управление осуществлялось независимо от причины нарушения. Чтобы уяснить различие между первичной функцией преобразования f (p) и новой функцией F (p), мы должны обратиться к первичной сети и сети обратной связи, которые управляются этими двумя функциями соответственно. "Сеть"— по-прежнему подходящий для нас термин, поскольку реальные системы значительно сложнее простых из числа здесь рассмотренных, в которых можно разглядеть единичные линии и цепи. "Сеть" на простом русском языке звучит лучше, чем латинское "ретикулум", как упоминалось ранее, поскольку теперь мы создаем систему со специально приспособленными соединениями. К названию ретикулум будем прибегать, ссылаясь на общие и, возможно, специальные случаи внутренних соединений в том контексте, в каком это слово первоначально было введено. Рис.8 Теперь обратимся к схеме простого сервомеханизма (рис.8) — нам предстоит исследовать характеристики обратной связи на основеихматематического описания. Это не означает, что мы будем изучать конкретные дифференциальные уравнения — вся дискуссия ограничится элементарными алгебраическими уравнениями, но это надо преодолеть. На вход системы обратной связи подается выходная величина основной системы — о. Выходная величина системы обратной связи есть результат воздействия на величину о функции преобразования системы обратной связи, т.е. oF(p). На входе предыдущей системы в результате воздействия обратной связи вместо величины i будет величина е = i+ oF(p). Если это так, то форма функции преобразования первичной системы изменится. Первоначально мы ее записали как f (p) =o/i, но теперь это неверно. На входе основной системы (прямоугольник f (p)) теперь уже величина не i, а е, представляющая суммарный эффект входной величины i и величины, обусловленной действием обратной связи, oF(p). Поскольку на входе блока f(p) величина е, а на выходе о, то f (p) = о/е. Чтобы получить функцию преобразования всей системы, мы должны вернуться к основному определению, в котором выходная величина сравнивалась с входной, и записать новую функцию я(р), которая устанавливает правильное соотношение между функциями f (p) и F (p). Конечно, просто записать 0 (р) =o/i. Но чтобы сделать то, что нам нужно, перепишем уравнение для первой системы f (p) и уравнение для е. Тогда получим ø (р) = o/i = f (p) / [l-f(p)F(p) ] Из данного уравнения следует несколько выводов. Во-первых, видно, что обратная связь может стать либо положительной, либо отрицательной. Рассмотрим произведение функций обратной связи первичной цепи и цепи обратной связи, а именно f(p)F(p). Предположим, что система не требует коррекции, т.е. функция обратной связи не оказывает никакого влияния. Тогда перемножение функций даст нуль и общая функция преобразования ø(p) будет правильно работать как f(p) сама по себе. Если произведение функций будет больше нуля, то знаменатель станет меньше единицы, а общее значение функции больше значения функции преобразования первичной цепи — в итоге получится положительная обратная связь. Если произведение функций станет меньше нуля, то знаменатель станет больше единицы и значение результирующей функции станет меньше значения функции преобразования первичной цепи — получим отрицательную обратную связь. Очевидно, что в одной и той же системе может быть как положительная обратная связь, так и отрицательная, в зависимости от формы переменной, действующей на входе, и сдвига по фазе во взаимодействии этих двух цепей. Во-вторых, весьма интересен результат действия отрицательной обратной связи. Корректирующая обратная связь по необходимости должна быть отрицательной, если любое отклонение от заданной нормы считается по его абсолютному значению положительным. Тогда уравнение для е должно быть переписано как e=i-oF(p), поскольку нам известно, что абсолютное значение функции преобразования погрешности должно вычитаться из первичного значения входной величины. Тогда уравнение для общей функции преобразования следует переписать в виде ø(р) = f (p)/[1+ f (p)F (p)]. Анализируя это уравнение, можно определить, что происходит, если значение функции преобразования первичной цепи становится очень большой величиной. При значении f(p), существенно превышающем единицу, единицей в знаменателе можно пренебречь и сократить числитель и знаменатель на f(p). В таком случае в схеме с обратной связью определяющей станет функция преобразования цепи обратной связи. Формально это можно записать так: если |f(p) |>>l, то ø (p) ~= l/F(p). Результат поразителен. У нас может быть очень слабый сигнал на входе, как это часто случается в биологических и управляющих ситуациях. Мы можем сильно усиливать этот сигнал в первичной цепи, и это часто случается. Тогда можно предположить, что любой "шум" на входе, т.е. по смыслу любая неверная информация на входе, станет также сильно усиливаться. Но поскольку в системе в целом преобладает влияние не первичной цепи, не первичной системы, а системы обратной связи, то именно она обеспечит на выходе сигнал, значительно "чище", чем можно было ожидать. Таким образом, мы оказываемся на пути к достижению желаемого качества системы — ее сверхустойчивости. Отрицательная обратная связь во всех случаях корректирует величину на выходе в соответствии с флуктуациями на входе. Неважно, какого сорта шум действует на систему, как он велик по сравнению с входным сигналом, насколько он хаотичен и почему возник. Система стремится подавить его влияние. Примечание. Результат решения последнего уравнения интересен и важен для понимания сверхустойчивости. Используемая здесь математика проста несмотря на введение уравнений, а аргументация понятна каждому, знакомому со школьной алгеброй. Тем не менее некоторые читатели не понимают, ни как получено уравнение для я(р), ни как исчезло значение е. Поскольку под последним подразумевается "ошибка", его исчезновение особенно примечательно. Поэтому здесь в соответствии с рис.8, осуществим все промежуточные алгебраические выкладки, демонстрирующие доказательства. По определению, f (p)=o/e, (1) e=i+ oF (p). (2) Из (1) следует, что о=ef (p). (3) Подстановка в (2) дает i = e-oF (p). (4) Используя результат (3) и (4), получаем общую функцию преобразования ø(р) = o/i = е f (p) /(e-oF (p)). (5) Подставляя значение о согласно (3) в знаменатель (5), получаем ø(р) =o/i=ef(p)/(e-ef(p)F(p)). (6) Сократив е в числителе и знаменателе (6), имеем ø(р) =o/i = f(p)/(l-f (p)F(p)), (7) Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.01 сек.) |