Страницы: -
1 -
2 -
3 -
4 -
5 -
6 -
7 -
8 -
9 -
10 -
11 -
12 -
13 -
14 -
15 -
16 -
17 -
18 -
19 -
20 -
21 -
22 -
23 -
ность. Они сильно зависят от сте-пени общности системы и от е„ поло-
жения в иерархической пирамиде. ОЭ и ОНГ можно оптимизировать по целям и
критериям своей системы по критериям иерархически ниже- или вышестоящей
системы. В обеих случаях цели и целевые критерии могут резко отличаться.
Следовательно отличаются и ОЭ и ОНГ. Например, целью отдельной торговой
фирмы может быть получение максимальной прибыли. Соответст-венно этому
конкретными критериями являются максими-зация доходов, цен на товары,
объ„ма продажи, минимизация расходов, численности персонала и т.д. Целью
государства является повышение выпуска перспективной, но пока менее при-
быльной промышленной и сельскохозяйственной продук-ций, увеличение экс-
порта, инвестиций и капитальных вложе-ний. Эти задачи уменьшают прибыль
фирм. Противоречия между целями государства, фирм и отдельных членов об-
щест-ва необходимо решить законодательством пут„м конструк-тивного комп-
ромисса. В качестве научной основы для реше-ния этих противоречий целе-
сообразно сравнить ОЭ и ОНГ системы в разных уровнях обобщения. ОЭ и ОНГ
можно рассчитать не только относительно целевого критерия самой данной
системы, но и относительно целей всех комплексов систем высшего ранга,
элементом которых она является. Для этого рассчитывают вероятности ис-
полнения основного кри-терия как функции условных энтропий по влияющим
фак-торам. Так как критерии в разных уровнях иерархии разные, то и ОЭ и
ОНГ будут в них разные. Теоретически можно рас-считать и величины ОЭ и
ОНГ различного уровня обобщ„н-ности. В практических работах легче оце-
нить эффективность процессов в системе пут„м определения изменения ОЭф.
Изменение ОЭф выражается в виде суммы увеличения макси-мальной ОЭм и
увеличения ОНГ. DОЭ = DОЭм - DОНГ. Желательно, чтобы ОНГ системы после
операции повы-шалась бы во всех уровнях иерархического комплекса (ОЭ по-
нижается). Если ОНГ относительно нижних уровней уве-личивается, а отно-
сительно критериев верхних уровней понижается, то следует дополнительно
оптимизировать сис-тему, чтобы обеспечивать общее повышение ОНГ. Часто
при-ходиться идти на компромисс, т.е. обеспечить меньшее уве-личение ОНГ
на нижнем уровне для того, чтобы ОНГ на высшем уровне тоже повышалась.
Возникает вопрос, почему не определить все ОЭ и ОНГ систем относи-
тельно критериев систем самого высокого уровня обобщения, например на
уровне человеческого об-щества в целом или на уровне развития универсу-
ма? Это был бы самый идеальный случай: все координировали бы свои
действия на основе всемирного блага, в направлении умень-шения всемирной
ОЭ и повышения ОНГ. Однако, чем выше уровень обобщения, тем менее точным
становяться резуль-таты. Это обусловлено следующими факторами:
1. Чем выше уровень обобщения (объ„м комплекса систем), тем больше ОЭ
систем и тем труднее е„ моде-лировать.
2. Уменьшается гомоморфность моделей и их соответст-вие первичной ре-
альности. Увеличивается приближ„нность моделей, их неопредел„нность.
3. Падает удельный вес ОЭ изучаемой системы в общем ОЭ. Из-за этого
резко увеличивается неточность рассч„тов, в т.ч. условных вероятностей.
4. В сильно обобщ„нных системах трудно определить оптимальные целевые
критерии. Резко повышается размер-ность системы, но и е„ многоцельность.
Для получения более точных данных необходимо со-четать результаты оп-
тимизации ОЭ и ОНГ на разных уров-нях обобщения и при применении соот-
ветствующих целевых критериев. Часто целесообразно поиск оптимальных ОЭ
и ОНГ провести по методам системного подхода, осуществляя его в виде
нескольких циклов (гл. 7) с целью постепенного приближения к оптимальным
решениям. Результаты опреде-ления ОНГ по критериям высших уровней пока-
зывают интересы всемирного или государственного развития. Крите-рии бо-
лее низкого уровня - интересы отдельных организаций и личностей. В слу-
чае оптимального управления величины ОНГ разного уровня должны совпадать
для конкретной системы. Большие отличия в ОНГ свидетельствуют о больших
пробелах в организации, о неупорядоченности комплексов систем. В госу-
дарственном масштабе требуются законодательные меры для оптимального уп-
равления и упорядочения деятельности всех лиц и организации по критериям
ОЭ и ОНГ.
5. ИНФОРМАЦИЯ И МЕТОДЫ
Е‚ ИЗМЕРЕНИЯ
Обсуждению различных аспектов сущности, обработки и применения инфор-
мации посвящено огромное количество работ, в частности [ 24, 25, 27 -
35, 37 - 44 ]. Несмотря на многочисленность публикации многие основные
вопросы ос-тались до настоящего времени невыясненными. Близость мнений
достигнута только в том, что полученная информация уменьшает неопре-
дел„нность, незнание, беспорядок принима-ющей е„ системы. Почти все ав-
торы обращают внимание на возрастающeе значение информации во всех сфе-
рах неорга-нической и живой природы, в деятельности человека и об-щест-
ва. Неясных вопросов, однако, имеется намного больше. Из них первооче-
редного рассмотрения требуют следующие проблемы.
1. Сущность и возможности оценки неопредел„нности, вероятности, неу-
порядоченности, энтропии. Их взаимные отношения и влияние между система-
ми.
2. Механизм передачи информации от одной системы (или е„ элемента) к
другой. Как происходит само-произвольное образование каналов связи между
сложными системами.
3. Методика определения качества и количества переда-ваемой информа-
ции, в т.ч. многомерной, вероятностной, семантической и обобщ„нной.
ЗАГАДКИ НЕОПРЕДЕЛ‚ННОСТИ
Поскольку основой информации является уменьшение неопредел„нности
систем, необходимо точнее раскрыть е„ сущность и связь с такими понятия-
ми как вероятность, разно-образие, беспорядок, хаос, неупорядоченность,
энтропия, не-предсказуемость, деструктивность, рассеянность, стохас-тич-
ность, случайность и шум.
Наиболее общим понятием из перечисленных является неопредел„нность.
Меру неопредел„нности можно рассмат-ривать как функцию от числа возмож-
ных исходов и ком-бинаций элементов в системе. То же характеризует их
разнообразие. В любой системе е„ разнообразие зависит от количества раз-
личных элементов, числа и комбинаций их возможных состояний и количества
возможных связей между ними. Поэтому понятия "неопредел„нность" и "раз-
нообразие" часто употребляются как синонимы. Мерой неопредел„нности сис-
темы является е„ энтропия, для сложных многомерных систем - ОЭ. Однако,
ряд важных положений, для обосно-вания использования ОЭ выведены на оп-
редел„нных допу-щениях. С помощью классических формул энтропию (не-опре-
дел„нность) можно охарактеризовать совокупностью всех независимых воз-
можных событий. С помощью условных вероятностей и условных энтропий мож-
но описать взаимную зависимость между событиями. Но существующие за-
ви-симости весьма разнообразны. При функциональной, детер-минированной
зависимости переходы системы из одного состояния в другое полностью пре-
допределены условиями (ОЭ = 0). Во многих процессах зависимости между
собы-тиями носят случайный характер. Среди них есть и такие, в которых
событие является сугубо индивидуальным резуль-татом исторически сложив-
шегося стечения случайных об-стоятельств, в цепи которых невозможно об-
наружить никаких закономерностей. Однако, при дополнительных допущениях,
и такие процессы (т.н.марковские случайные процессы) мож-но характеризо-
вать энтропией (К.Шеннон). Таким образом, применять энтропию как меру
неопредел„нности нужно очень осторожно, проверяя предварительно, нас-
колько исследуемый процесс при условиях данной задачи соответствует при-
нятым допущениям и ограничениям. Последние нужно выбирать в таком коли-
честве, чтобы обеспечить достаточную выполняе-мость расч„тов, достовер-
ность данных и точность результа-тов. Понятие неупорядоченности является
отношением факти-
ческой к максимально возможной энтропии ОЭф ,показывает ОЭм
cтепень уменьшения ОЭм после получения ОНГ и колеблется
в пределах 0 < ОЭф < 1 ОЭм
Вероятность также характеризует неопредел„нность, но е„ прямое приме-
нение возможно при конкретных, более уз-ких пределах. Для многих сложных
вероятностей много-мерных систем применение условных вероятностей в
расч„тах связано с большими трудностями. В мире нет чисто слу-чайных или
чисто детерминированных систем. Вероятност-ный компонент содержится во
всех в первичной реальности существующих системах. Они имеют бесконечно
большую размерность, неопредел„нность в микромире, во времени и прост-
ранстве. Их энтропия приближается к бесконечности. В реальном мире нет
абсолютно детерминированных систем. Имеются искусственно изолированные
во времени и в прост-ранстве системы, в которых детерминированный компо-
нент превалирует. Например, солнечная система. Движение планет подчиня-
ется законам гравитации, предсказуемо по математи-ческим уравнениям. Од-
нако, и эта система (орбита) изменя-ется по космическим масштабам быстро
и солнце само тоже не существует вечно (около 5 млрд. лет). Мысленно
можно создать модели, которые абсолютно детерминированные, т.е. исключа-
ют все случайности. Вероятность результата такой системы 1,0; ОЭ = 0.
Например, система состоит из формулы 2 ? 2 = 4. Вероятность достижения
целевой критерии 4 сос-тавляет 1,0; ОЭ = 0. Однако, такая система су-
ществует только в голове. В реальной жизни нет четыр„х абсолютно одина-
ковых объектов, а при сложении разноценных систем результат становится
неопредел„нным.
Почти во всех системах неопредел„нность есть некото-рое отношение
элемента, входящего в множество, к числу всех элементов в множестве. В
каждом отношении сочета-ются случайные и неслучайные факторы. Соот-
ветственно с этим для уменьшения неопредел„нности системы необходимо со-
четать статистическую теорию информации с использова-нием априорной ин-
формации, теорий, гипотез и других мето-дов эвристического моделирова-
ния, в том числе с экспе-риментами.
Стохастичность и случайность можно считать синони-мами, также как и
неупорядоченность и беспорядок. Имеются понятия для обозначения неопре-
дел„нности в отдельных об-ластях: шум - в процессе инфопередачи, неп-
редсказуемость - в прогнозах будущего, деструктивность - в структуре,
рассеянность - в пространстве.
СУЩНОСТЬ ИНФОРМАЦИИ
Из огромного числа публикаций по проблеме сущности информации можно
выделить два е„ основных значения.
1. Давно применяемое "обыденное" значение, что сфор-мировал также
Н.Винер: "Информация - это обозначение содержания, полученного из внеш-
него мира в процессе на-шего приспособления к нему и приспосабливания
наших чувств [ 21 ]. Здесь информация выступает в роли знания, сообще-
ния.
2. Кибернетическое понятие информации, которое было сформулировано в
основополагающих работах Н.Винера, осо-бенно К.Шеннона в 1948 году [ 25
]. В теории Шеннона под информацией понимают только те передаваемые со-
общения, которые уменьшают неопредел„нность у получателя инфор-мации.
Следовательно информация измеряется разностью энтропий (Н) системы до и
после получения информации. Если целевые критерии системы-при„мника ин-
формации обо-значить В, а событие в системе-передатчике А, то количество
передаваемой информации:
J (A, B) = H(B) - H(B / A) > - lg2 P(B) + lg2 P(B / A)
В формуле выражен относительный характер среднего значения информа-
ции, как показателя зависимости между двумя событиями. Из формулы следу-
ет, что не существует абсолютной информации: есть информация относи-
тельно оп-редел„нного события (критерия, цели) или объекта, содер-жащая-
ся в другом событии. Измерение энтропии системы имеет ценность потому,
что позволяет оценить влияние собы-тия А на событие В в форме разности
Н(В) - Н(В / А), т.е. по количеству информации. Последнее является
мерой отношения, взаимосвязи между системами, явлениями, процессами, а
не показателем состо-яния систем.
Концепция Шеннона в принципе не вызывает возраже-ний и нашла широкое
применение. Однако, существующие формулы теории информации предназначены
для обмена ин-формацией между относительно простыми системами и по
ка-налам связи с одно-трех-мерными сигналами. При примене-нии формул для
расч„та обмена информацией между сложны-ми системами (обладающими высо-
кими ОЭ и ОНГ), необхо-димо их уточнять и дополнять с уч„том следующих
факторов.
1. Целевые критерии реальных сложных систем зависят обычно не от од-
ного события или фактора другой системы, а от многих. Последние могут
быть зависимыми также между собой. В таком случае при„мник информации
получит одно-временно многомерную информацию от многих источников в
комплексе.
2. При уменьшении ОЭ (увеличении ОНГ) системы, принимающего информа-
цию, используются не только пара-метры состояния отправной системы, но и
обобщ„нные поня-тия, символы, формулы, закономерности и т.д. Эта, т.н.
априорная информация, может быть получена как от системы при„мника, так
и отправителя. Влияние этой априорной ин-формации должно быть учтено при
расч„тах передачи ин-формации.
3. Нельзя исключить возможность, что в результате по-лучения информа-
ции общая максимально возможная энтро-пия системы-модели увеличивается.
Могут появляться ранее неучт„нные факторы-размерности или расширены пре-
делы независимых переменных. Если это происходит, необходимо это прове-
рить и учесть.
Таким образом, практические расч„ты передачи инфор-мации значительно
сложнее, чем просто оценка уменьшения ОЭ системы, особенно для сложных
многофакторных систем. Улучшенную, но не совершенную, формулу для
расч„та ин-формации можно представить следующим образом (Н можно заме-
нить на ОЭ):
J (A, B) = H (B) + DиH (B) - е H (B / Ai), где:
H (B) - энтропия системы по целевому критерию В,
DиH(B) - увеличение максимальной энтропии системы В в результате рас-
ширения пространства состояния,
H(B/Ai) - условная энтропия относительно целевого критерия В при вы-
полнении события Ai и связанных с этим закономерностей и зависимых собы-
тий,
Ai - множество событий, закономерностей и факторов, влияющих на кри-
терий В.
Так как в мире существует неисчислимое количество разных и разнооб-
разно связанных систем, то и информация между ними может иметь огромное
количество вариантов. Особенности и степень обобщ„нности понятий необхо-
димо учитывать при уточнении данных и формул расч„та. Однако, для избе-
жания ошибок при истолковании и анализе инфор-мационных процессов,
нельзя отклоняться от их основного содержания, от уменьшения ОЭ. Этот
основной постулат наи-более общий и действует для любой системы универ-
сума: как в неорганическом мире, так и в живых организмах, в соз-нании и
в космосе. Сущность информации заключается в сле-дующем:
Обобщ„нной информацией является любая связь или отношение между сис-
темами, в результате которой повы-шается обобщ„нная негэнтропия (ОНГ)
хотя бы одной системы.
Так как элементы системы можно рассматривать как от-дельные системы,
то и связи между элементами внутри систе-мы могут являться информацией.
В то же время далеко не все связи или сообщения являются информацией.
Если они не повышают ОНГ, они могут являтся шумом, деструктирую-щим
действием, в отдельных случаях, в живой природе и дез-информациeй. Слово
"обобщ„нность" включено в дефиницию для того, чтобы подчеркнуть, что
универсальность понятия достигается в том случае, если учтены и оптими-
зированы все влияющие на целевые критерии факторы. К этим относятся и
априорные формы информации. В случае упрощ„нных мо-делей систем и инфо-
передаче по классическим каналам связи можно применять и упрощ„нную де-
финицию информации:
Информацией является связь или отношение между системами, в результа-
те которой повышается негэнтропия системы-при„мника.
Одним из основных показателей состояния и форм су-ществования любых
систем является ОНГ (связанная инфор-мация). Каждая система характеризу-
ется обеими показа-телями как ОЭ, так и ОНГ. Их измеряют в одних и тех
же единицах. ОНГ имеет отрицательный знак, но абсолютные цифры ОНГ и ОЭф
не равны. Для одной системы и одного целевого критерия эти показатели
связаны следующей формулой:
ОЭф + ОНГф = ОЭм , где:
ОЭф - фактическая ОЭ системы,
ОНГф - фактическая ОНГ системы,
ОЭм - максимально возможная ОЭ системы.
Если известны 2 из тр„х показателей, то третий можно рассчитать. Та-
ким образом, каждая система имеет три час-тично зависимые характеристики
состояния. Это имеет какую-то аналогию с распределением в системе внут-
ренней энергии.
U = F + G = F + T . S, где:
U - внутренняя энергия,
F - свободная энергия,
G - связанная энергия,
S - энтропия,
T - абсолютная температура.
ИНФОДИАЛЕКТИКА
Философская сущность понятия информации до насто-ящего времени пол-
ностью не выяснена. Классики теории ин-формации и кибернетики не дали
проблеме исчерпывающего объяснения. Н.Винер указал, что информация явля-
ется ин-формацией, не материей или энергией. Под понятием "ма-терия" он
подразумевал вещество и массу. Если под материей подразумевать всю
объективную реальность, то информация содержится в этом понятии. Указа-
ние того, чем информация не является, не решает проблему. Дефиниция, что
инфор-мация является мерой упорядоченности, организованности не решает
вопрос, на основании каких критериев устанавли-вается эта мера, и отно-
сительно чего?
Многие заблуждения вызваны т.н. теорией отражения диалектического ма-
териализма [46, 47]. Уже это слово - отражение, может вызвать только не-
доумение. Полное отра-жение мира во всем его многообразии или даже его
ма-ленькой части, невозможно. Захламление сознания несущест-венными де-
талями только затруднила бы процессы обработки информации и моделирова-
ния. В действительности как созна-ние, так и органы при„ма информации
выборочно принимают е„, обрабатывают и сохраняют в памяти. В публикациях
опи-сано много вариантов т.н. отражательной концепции инфор-мации.
И.В.Новик связывает информацию с упорядоченным отражением, тогда как не-
упорядоченное хаотическое отраже-ние обозначается понятием "шум" [ 36 ].
Информацию старались по разному соединить с отражением. Е„ определили
как сторону (часть) или вид (форма) отражения, категорию отражения, раз-
нообразие отражения, "передаваемую" часть отражения, инвариант отраже-
ния, необходимую предпосылку отражения, сторону отражения, допускающая
передачу и объективирование, характеристику, аспект отражения, ак-
тив-ное, целесообразное отражение. Бросается в глаза, что поня-тие "от-
ражение" не содержит дополнительную информацию и его параллельное инфор-
мации рассмотрение не имеет смысла.
В процессе передачи информации решающее значение имеет система прини-
мающая е„, точнее ОНГ системы. Дейст-вительно, если не было бы системы
при„ма с его ОНГ, передача информации не могла бы состоятся. Следова-
тельно основную роль в приеме, выборе и оценке имеет ОНГ или связанная
информация в системе. Информация является функцией процесса, ОНГ - функ-
цией состояния системы и имеет свойства инерции и памяти.
Представляют интерес и взаимосвязи между инфор-мацией, ОНГ и диалек-
тическим методом их исследования. До сих пор недостаточно раскрыто ин-
формационное содержание диалектического метода. Уже в античные времена
диалектика означала выяснение истины (т.е. подлинной информации) пут„м
проведения диалога, противоборства разных мнений, факторов, идей.
Действительно, к истине приближаются только тогда, когда выслушают мне-
ние всех заинтересован-ных сторон. Значит, уже в античные времена кос-
венно нача-лось применение методов, которые сейчас известны под наз-ва-
нием системного и многофакторного анализа