Главная    Почта    Новости    Каталог    Одноклассники    Погода    Работа    Игры     Рефераты     Карты
  
по Казнету new!
по каталогу
в рефератах

Основы теории систем и системный анализ

лей функционирования сложной системы — описание на уровне простых случайных событий (с вероятностью P(X) может произойти событие X). При том под событием придется понимать то, что случайная величина займет одно из допустимых для нее положений на шкале Nom, Ord, Int или Rel. Конечно — такой, “микроскопический” подход резко увеличивает объем информации, необходимой для системного анализа. Частично этот недостаток смягчается при использовании компьютерных методов системного анализа, но более важно другое — преимущество на начальных этапах анализа, когда решаются вопросы дезинтеграции большой системы (выделение отдельных ее элементов) и последующей ее интеграции для разработки стратегии управления системой. Не будет большим преувеличением считать, что методы непараметрической статистики - наиболее мощное средство для решения задач системного анализа во многих областях деятельности человека и, в частности, в экономике. 5 Корреляция случайных величин Прямое токование термина корреляция — стохастическая, вероятная, возможная связь между двумя (парная) или несколькими (множественная) случайными величинами. Выше говорилось о том, что если для двух СВ (X и Y) имеет место равенство P(XY) =P(X) [pic]P(Y), то величины X и Y считаются независимыми. Ну, а если это не так!? Ведь всегда важен вопрос — а как сильно зависит одна СВ от другой? И дело в не присущем людям стремлении анализировать что-либо обязательно в числовом измерении. Уже понятно, что системный анализ означает непрерывные выЧИСЛения, что использование компьютера вынуждает нас работать с числами, а не понятиями. Для числовой оценки возможной связи между двумя случайными величинами: Y(со средним My и среднеквадратичным отклонением Sy) и — X (со средним Mx и среднеквадратичным отклонением Sx) принято использовать так называемый коэффициент корреляции Rxy=[pic] . {2 - 11} Этот коэффициент может принимать значения от -1 до +1 — в зависимости от тесноты связи между данными случайными величинами. Если коэффициент корреляции равен нулю, то X и Y называют некоррелированными. Считать их независимыми обычно нет оснований — оказывается, что существуют такие, как правило — нелинейные связи величин, при которых Rxy = 0, хотя величины зависят друг от друга. Обратное всегда верно — если величины независимы, то Rxy = 0. Но, если модуль Rxy = 1, то есть все основания предполагать наличие линейной связи между Y и X. Именно поэтому часто говорят о линейной корреляции при использовании такого способа оценки связи между СВ. Отметим еще один способ оценки корреляционной связи двух случайных величин — если просуммировать произведения отклонений каждой из них от своего среднего значения, то полученную величину — Сxy= ( (X - Mx)((Y - My) или ковариацию величин X и Y отличает от коэффициента корреляции два показателя: во-первых, усреднение (деление на число наблюдений или пар X, Y) и, во-вторых, нормирование путем деления на соответствующие среднеквадратичные отклонения. Такая оценка связей между случайными величинами в сложной системе является одним из начальных этапов системного анализа, поэтому уже здесь во всей остроте встает вопрос о доверии к выводу о наличии или отсутствии связей между двумя СВ. В современных методах системного анализа обычно поступают так. По найденному значению R вычисляют вспомогательную величину: W = 0.5 Ln[(1 + R)/(1-R)] {2 - 12} и вопрос о доверии к коэффициенту корреляции сводят к доверительным интервалам для случайной величины W, которые определяются стандартными таблицами или формулами. В отдельных случаях системного анализа приходится решать вопрос о связях нескольких (более 2) случайных величин или вопрос о множественной корреляции. Пусть X, Y и Z - случайные величины, по наблюдениям над которыми мы установили их средние Mx, My,Mz и среднеквадратичные отклонения Sx, Sy, Sz. Тогда можно найти парные коэффициенты корреляции Rxy, Rxz, Ryz по приведенной выше формуле. Но этого явно недостаточно - ведь мы на каждом из трех этапов попросту забывали о наличии третьей случайной величины! Поэтому в случаях множественного корреляционного анализа иногда требуется отыскивать т. н. частные коэффициенты корреляции — например, оценка виляния Z на связь между X и Y производится с помощью коэффициента Rxy.z = [pic] {2 - 13} И, наконец, можно поставить вопрос — а какова связь между данной СВ и совокупностью остальных? Ответ на такие вопросы дают коэффициенты множественной корреляции Rx.yz, Ry.zx, Rz.xy, формулы для вычисления которых построены по тем же принципам — учету связи одной из величин со всеми остальными в совокупности. На сложности вычислений всех описанных показателей корреляционных связей можно не обращать особого внимания - программы для их расчета достаточно просты и имеются в готовом виде во многих ППП современных компьютеров. Достаточно понять главное — если при формальном описании элемента сложной системы, совокупности таких элементов в виде подсистемы или, наконец, системы в целом, мы рассматриваем связи между отдельными ее частями, — то степень тесноты этой связи в виде влияния одной СВ на другую можно и нужно оценивать на уровне корреляции. В заключение заметим еще одно — во всех случаях системного анализа на корреляционном уровне обе случайные величины при парной корреляции или все при множественной считаются "равноправными" — т. е. речь идет о взаимном влиянии СВ друг на друга. Так бывает далеко не всегда - очень часто вопрос о связях Y и X ставится в иной плоскости — одна из величин является зависимой (функцией) от другой (аргумента). 6 Линейная регрессия В тех случаях, когда из природы процессов в системе или из данных наблюдений над ней следует вывод о нормальном законе распределения двух СВ - Y и X, из которых одна является независимой, т. е. Y является функцией X, то возникает соблазн определить такую зависимость “формульно”, аналитически. В случае успеха нам будет намного проще вести системный анализ — особенно для элементов системы типа "вход-выход”. Конечно, наиболее заманчивой является перспектива линейной зависимости типа Y = a + b(X . Подобная задача носит название задачи регрессионного анализа и предполагает следующий способ решения. Выдвигается следующая гипотеза: H0: случайная величина Y при фиксированном значении величины X распределена нормально с математическим ожиданием My = a + b(X и дисперсией Dy, не зависящей от X. {2 - 14} При наличии результатов наблюдений над парами Xi и Yi предварительно вычисляются средние значения My и Mx, а затем производится оценка коэффициента b в виде b =[pic][pic] = Rxy [pic][pic] {2 - 15} что следует из определения коэффициента корреляции {2 - 11}. После этого вычисляется оценка для a в виде a = My - b[pic]MX {2 - 16} и производится проверка значимости полученных результатов. Таким образом, регрессионный анализ является мощным, хотя и далеко не всегда допустимым расширением корреляционного анализа, решая всё ту же задачу оценки связей в сложной системе. 7 Элементы теории статистических решений Что такое - статистическое решение? В качестве простейшего примера рассмотрим ситуацию, в которой вам предлагают сыграть в такую игру: ( вам заплатят 2 доллара, если подброшенная монета упадет вверх гербом; ( вы заплатите 1 доллар, если она упадет гербом вниз. Скорее всего, вы согласитесь сыграть, хотя понимаете степень риска. Вы сознаете, "знаете" о равновероятности появления герба и "вычисляете" свой выигрыш 0.5 ( 1- 0.5 ( 1= + $0.5. Усложним игру — вы видите, что монета несколько изогнута и возможно будет падать чаще одной из сторон. Теперь решение играть или не играть по- прежнему зависит от вероятности выигрыша, которая не может быть заранее (по латыни — apriori) принята равной 0.5. Человек, знакомый со статистикой, попытается оценить эту вероятность с помощью опытов, если конечно они возможны и стоят не очень дорого. Немедленно возникает вопрос - сколько таких бросаний вам будет достаточно? Пусть с вас причитается 5 центов за одно экспериментальное бросание, а ставки в игре составляют $2000 против $1000. Скорее всего, вы согласитесь сыграть, заплатив сравнительно небольшую сумму за 100..200 экспериментальных бросков. Вы, наверное, будете вести подсчет удачных падений и, если их число составит 20 из 100, прекратите эксперимент и сыграете на ставку $2000 против $1000, так как ожидаемый выигрыш оценивается в 0.8(2000 + 0.2(1000 -100(0.05=$1795. В приведенных примерах главным для принятия решения была вероятность благоприятного исхода падения монетки. В первом случае — априорная вероятность, а во втором — апостериорная. Такую информацию принято называть данными о состоянии природы. Приведенные примеры имеют самое непосредственное отношение к существу нашего предмета. В самом деле — при системном управлении приходится принимать решения в условиях, когда последствия таких решений заранее достоверно неизвестны. При этом вопрос: играть или не играть — не стоит! "Играть" надо, надо управлять системой. Вы спросите - а как же запрет на эксперименты? Ответ можно дать такой — само поведение системы в обычном ее состоянии может рассматриваться как эксперимент, из которого при правильной организации сбора и обработки информации о поведении системы можно ожидать получения данных для выяснения особенности системного подхода к решению задач управления. Этапы системного анализа 1 Общие положения В большинстве случаев практического применения системного анализа для исследования свойств и последующего оптимального управления системой можно выделить следующие основные этапы: ( Содержательная постановка задачи ( Построение модели изучаемой системы ( Отыскание решения задачи с помощью модели ( Проверка решения с помощью модели ( Подстройка решения под внешние условия ( Осуществление решения Остановимся вкратце на каждом из этих этапов. Будем выделять наиболее сложные в понимании этапы и пы
Пред.678910След.
скачать работу

Основы теории систем и системный анализ

 

Отправка СМС бесплатно

На правах рекламы


ZERO.kz
 
Модератор сайта RESURS.KZ