Электронная библиотека
Библиотека .орг.уа
Поиск по сайту
Философия
   Книги по философии
      Лийв Э.Х.. Инфодинимика: Обобщенная энтропия и негэнтропия -
Страницы: - 1  - 2  - 3  - 4  - 5  - 6  - 7  - 8  - 9  - 10  - 11  - 12  - 13  - 14  - 15  - 16  -
17  - 18  - 19  - 20  - 21  - 22  - 23  -
ность. Они сильно зависят от сте-пени общности системы и от е„ поло- жения в иерархической пирамиде. ОЭ и ОНГ можно оптимизировать по целям и критериям своей системы по критериям иерархически ниже- или вышестоящей системы. В обеих случаях цели и целевые критерии могут резко отличаться. Следовательно отличаются и ОЭ и ОНГ. Например, целью отдельной торговой фирмы может быть получение максимальной прибыли. Соответст-венно этому конкретными критериями являются максими-зация доходов, цен на товары, объ„ма продажи, минимизация расходов, численности персонала и т.д. Целью государства является повышение выпуска перспективной, но пока менее при- быльной промышленной и сельскохозяйственной продук-ций, увеличение экс- порта, инвестиций и капитальных вложе-ний. Эти задачи уменьшают прибыль фирм. Противоречия между целями государства, фирм и отдельных членов об- щест-ва необходимо решить законодательством пут„м конструк-тивного комп- ромисса. В качестве научной основы для реше-ния этих противоречий целе- сообразно сравнить ОЭ и ОНГ системы в разных уровнях обобщения. ОЭ и ОНГ можно рассчитать не только относительно целевого критерия самой данной системы, но и относительно целей всех комплексов систем высшего ранга, элементом которых она является. Для этого рассчитывают вероятности ис- полнения основного кри-терия как функции условных энтропий по влияющим фак-торам. Так как критерии в разных уровнях иерархии разные, то и ОЭ и ОНГ будут в них разные. Теоретически можно рас-считать и величины ОЭ и ОНГ различного уровня обобщ„н-ности. В практических работах легче оце- нить эффективность процессов в системе пут„м определения изменения ОЭф. Изменение ОЭф выражается в виде суммы увеличения макси-мальной ОЭм и увеличения ОНГ. DОЭ = DОЭм - DОНГ. Желательно, чтобы ОНГ системы после операции повы-шалась бы во всех уровнях иерархического комплекса (ОЭ по- нижается). Если ОНГ относительно нижних уровней уве-личивается, а отно- сительно критериев верхних уровней понижается, то следует дополнительно оптимизировать сис-тему, чтобы обеспечивать общее повышение ОНГ. Часто при-ходиться идти на компромисс, т.е. обеспечить меньшее уве-личение ОНГ на нижнем уровне для того, чтобы ОНГ на высшем уровне тоже повышалась. Возникает вопрос, почему не определить все ОЭ и ОНГ систем относи- тельно критериев систем самого высокого уровня обобщения, например на уровне человеческого об-щества в целом или на уровне развития универсу- ма? Это был бы самый идеальный случай: все координировали бы свои действия на основе всемирного блага, в направлении умень-шения всемирной ОЭ и повышения ОНГ. Однако, чем выше уровень обобщения, тем менее точным становяться резуль-таты. Это обусловлено следующими факторами: 1. Чем выше уровень обобщения (объ„м комплекса систем), тем больше ОЭ систем и тем труднее е„ моде-лировать. 2. Уменьшается гомоморфность моделей и их соответст-вие первичной ре- альности. Увеличивается приближ„нность моделей, их неопредел„нность. 3. Падает удельный вес ОЭ изучаемой системы в общем ОЭ. Из-за этого резко увеличивается неточность рассч„тов, в т.ч. условных вероятностей. 4. В сильно обобщ„нных системах трудно определить оптимальные целевые критерии. Резко повышается размер-ность системы, но и е„ многоцельность. Для получения более точных данных необходимо со-четать результаты оп- тимизации ОЭ и ОНГ на разных уров-нях обобщения и при применении соот- ветствующих целевых критериев. Часто целесообразно поиск оптимальных ОЭ и ОНГ провести по методам системного подхода, осуществляя его в виде нескольких циклов (гл. 7) с целью постепенного приближения к оптимальным решениям. Результаты опреде-ления ОНГ по критериям высших уровней пока- зывают интересы всемирного или государственного развития. Крите-рии бо- лее низкого уровня - интересы отдельных организаций и личностей. В слу- чае оптимального управления величины ОНГ разного уровня должны совпадать для конкретной системы. Большие отличия в ОНГ свидетельствуют о больших пробелах в организации, о неупорядоченности комплексов систем. В госу- дарственном масштабе требуются законодательные меры для оптимального уп- равления и упорядочения деятельности всех лиц и организации по критериям ОЭ и ОНГ. 5. ИНФОРМАЦИЯ И МЕТОДЫ Е‚ ИЗМЕРЕНИЯ Обсуждению различных аспектов сущности, обработки и применения инфор- мации посвящено огромное количество работ, в частности [ 24, 25, 27 - 35, 37 - 44 ]. Несмотря на многочисленность публикации многие основные вопросы ос-тались до настоящего времени невыясненными. Близость мнений достигнута только в том, что полученная информация уменьшает неопре- дел„нность, незнание, беспорядок принима-ющей е„ системы. Почти все ав- торы обращают внимание на возрастающeе значение информации во всех сфе- рах неорга-нической и живой природы, в деятельности человека и об-щест- ва. Неясных вопросов, однако, имеется намного больше. Из них первооче- редного рассмотрения требуют следующие проблемы. 1. Сущность и возможности оценки неопредел„нности, вероятности, неу- порядоченности, энтропии. Их взаимные отношения и влияние между система- ми. 2. Механизм передачи информации от одной системы (или е„ элемента) к другой. Как происходит само-произвольное образование каналов связи между сложными системами. 3. Методика определения качества и количества переда-ваемой информа- ции, в т.ч. многомерной, вероятностной, семантической и обобщ„нной. ЗАГАДКИ НЕОПРЕДЕЛ‚ННОСТИ Поскольку основой информации является уменьшение неопредел„нности систем, необходимо точнее раскрыть е„ сущность и связь с такими понятия- ми как вероятность, разно-образие, беспорядок, хаос, неупорядоченность, энтропия, не-предсказуемость, деструктивность, рассеянность, стохас-тич- ность, случайность и шум. Наиболее общим понятием из перечисленных является неопредел„нность. Меру неопредел„нности можно рассмат-ривать как функцию от числа возмож- ных исходов и ком-бинаций элементов в системе. То же характеризует их разнообразие. В любой системе е„ разнообразие зависит от количества раз- личных элементов, числа и комбинаций их возможных состояний и количества возможных связей между ними. Поэтому понятия "неопредел„нность" и "раз- нообразие" часто употребляются как синонимы. Мерой неопредел„нности сис- темы является е„ энтропия, для сложных многомерных систем - ОЭ. Однако, ряд важных положений, для обосно-вания использования ОЭ выведены на оп- редел„нных допу-щениях. С помощью классических формул энтропию (не-опре- дел„нность) можно охарактеризовать совокупностью всех независимых воз- можных событий. С помощью условных вероятностей и условных энтропий мож- но описать взаимную зависимость между событиями. Но существующие за- ви-симости весьма разнообразны. При функциональной, детер-минированной зависимости переходы системы из одного состояния в другое полностью пре- допределены условиями (ОЭ = 0). Во многих процессах зависимости между собы-тиями носят случайный характер. Среди них есть и такие, в которых событие является сугубо индивидуальным резуль-татом исторически сложив- шегося стечения случайных об-стоятельств, в цепи которых невозможно об- наружить никаких закономерностей. Однако, при дополнительных допущениях, и такие процессы (т.н.марковские случайные процессы) мож-но характеризо- вать энтропией (К.Шеннон). Таким образом, применять энтропию как меру неопредел„нности нужно очень осторожно, проверяя предварительно, нас- колько исследуемый процесс при условиях данной задачи соответствует при- нятым допущениям и ограничениям. Последние нужно выбирать в таком коли- честве, чтобы обеспечить достаточную выполняе-мость расч„тов, достовер- ность данных и точность результа-тов. Понятие неупорядоченности является отношением факти- ческой к максимально возможной энтропии ОЭф ,показывает ОЭм cтепень уменьшения ОЭм после получения ОНГ и колеблется в пределах 0 < ОЭф < 1 ОЭм Вероятность также характеризует неопредел„нность, но е„ прямое приме- нение возможно при конкретных, более уз-ких пределах. Для многих сложных вероятностей много-мерных систем применение условных вероятностей в расч„тах связано с большими трудностями. В мире нет чисто слу-чайных или чисто детерминированных систем. Вероятност-ный компонент содержится во всех в первичной реальности существующих системах. Они имеют бесконечно большую размерность, неопредел„нность в микромире, во времени и прост- ранстве. Их энтропия приближается к бесконечности. В реальном мире нет абсолютно детерминированных систем. Имеются искусственно изолированные во времени и в прост-ранстве системы, в которых детерминированный компо- нент превалирует. Например, солнечная система. Движение планет подчиня- ется законам гравитации, предсказуемо по математи-ческим уравнениям. Од- нако, и эта система (орбита) изменя-ется по космическим масштабам быстро и солнце само тоже не существует вечно (около 5 млрд. лет). Мысленно можно создать модели, которые абсолютно детерминированные, т.е. исключа- ют все случайности. Вероятность результата такой системы 1,0; ОЭ = 0. Например, система состоит из формулы 2 ? 2 = 4. Вероятность достижения целевой критерии 4 сос-тавляет 1,0; ОЭ = 0. Однако, такая система су- ществует только в голове. В реальной жизни нет четыр„х абсолютно одина- ковых объектов, а при сложении разноценных систем результат становится неопредел„нным. Почти во всех системах неопредел„нность есть некото-рое отношение элемента, входящего в множество, к числу всех элементов в множестве. В каждом отношении сочета-ются случайные и неслучайные факторы. Соот- ветственно с этим для уменьшения неопредел„нности системы необходимо со- четать статистическую теорию информации с использова-нием априорной ин- формации, теорий, гипотез и других мето-дов эвристического моделирова- ния, в том числе с экспе-риментами. Стохастичность и случайность можно считать синони-мами, также как и неупорядоченность и беспорядок. Имеются понятия для обозначения неопре- дел„нности в отдельных об-ластях: шум - в процессе инфопередачи, неп- редсказуемость - в прогнозах будущего, деструктивность - в структуре, рассеянность - в пространстве. СУЩНОСТЬ ИНФОРМАЦИИ Из огромного числа публикаций по проблеме сущности информации можно выделить два е„ основных значения. 1. Давно применяемое "обыденное" значение, что сфор-мировал также Н.Винер: "Информация - это обозначение содержания, полученного из внеш- него мира в процессе на-шего приспособления к нему и приспосабливания наших чувств [ 21 ]. Здесь информация выступает в роли знания, сообще- ния. 2. Кибернетическое понятие информации, которое было сформулировано в основополагающих работах Н.Винера, осо-бенно К.Шеннона в 1948 году [ 25 ]. В теории Шеннона под информацией понимают только те передаваемые со- общения, которые уменьшают неопредел„нность у получателя инфор-мации. Следовательно информация измеряется разностью энтропий (Н) системы до и после получения информации. Если целевые критерии системы-при„мника ин- формации обо-значить В, а событие в системе-передатчике А, то количество передаваемой информации: J (A, B) = H(B) - H(B / A) > - lg2 P(B) + lg2 P(B / A) В формуле выражен относительный характер среднего значения информа- ции, как показателя зависимости между двумя событиями. Из формулы следу- ет, что не существует абсолютной информации: есть информация относи- тельно оп-редел„нного события (критерия, цели) или объекта, содер-жащая- ся в другом событии. Измерение энтропии системы имеет ценность потому, что позволяет оценить влияние собы-тия А на событие В в форме разности Н(В) - Н(В / А), т.е. по количеству информации. Последнее является мерой отношения, взаимосвязи между системами, явлениями, процессами, а не показателем состо-яния систем. Концепция Шеннона в принципе не вызывает возраже-ний и нашла широкое применение. Однако, существующие формулы теории информации предназначены для обмена ин-формацией между относительно простыми системами и по ка-налам связи с одно-трех-мерными сигналами. При примене-нии формул для расч„та обмена информацией между сложны-ми системами (обладающими высо- кими ОЭ и ОНГ), необхо-димо их уточнять и дополнять с уч„том следующих факторов. 1. Целевые критерии реальных сложных систем зависят обычно не от од- ного события или фактора другой системы, а от многих. Последние могут быть зависимыми также между собой. В таком случае при„мник информации получит одно-временно многомерную информацию от многих источников в комплексе. 2. При уменьшении ОЭ (увеличении ОНГ) системы, принимающего информа- цию, используются не только пара-метры состояния отправной системы, но и обобщ„нные поня-тия, символы, формулы, закономерности и т.д. Эта, т.н. априорная информация, может быть получена как от системы при„мника, так и отправителя. Влияние этой априорной ин-формации должно быть учтено при расч„тах передачи ин-формации. 3. Нельзя исключить возможность, что в результате по-лучения информа- ции общая максимально возможная энтро-пия системы-модели увеличивается. Могут появляться ранее неучт„нные факторы-размерности или расширены пре- делы независимых переменных. Если это происходит, необходимо это прове- рить и учесть. Таким образом, практические расч„ты передачи инфор-мации значительно сложнее, чем просто оценка уменьшения ОЭ системы, особенно для сложных многофакторных систем. Улучшенную, но не совершенную, формулу для расч„та ин-формации можно представить следующим образом (Н можно заме- нить на ОЭ): J (A, B) = H (B) + DиH (B) - е H (B / Ai), где: H (B) - энтропия системы по целевому критерию В, DиH(B) - увеличение максимальной энтропии системы В в результате рас- ширения пространства состояния, H(B/Ai) - условная энтропия относительно целевого критерия В при вы- полнении события Ai и связанных с этим закономерностей и зависимых собы- тий, Ai - множество событий, закономерностей и факторов, влияющих на кри- терий В. Так как в мире существует неисчислимое количество разных и разнооб- разно связанных систем, то и информация между ними может иметь огромное количество вариантов. Особенности и степень обобщ„нности понятий необхо- димо учитывать при уточнении данных и формул расч„та. Однако, для избе- жания ошибок при истолковании и анализе инфор-мационных процессов, нельзя отклоняться от их основного содержания, от уменьшения ОЭ. Этот основной постулат наи-более общий и действует для любой системы универ- сума: как в неорганическом мире, так и в живых организмах, в соз-нании и в космосе. Сущность информации заключается в сле-дующем: Обобщ„нной информацией является любая связь или отношение между сис- темами, в результате которой повы-шается обобщ„нная негэнтропия (ОНГ) хотя бы одной системы. Так как элементы системы можно рассматривать как от-дельные системы, то и связи между элементами внутри систе-мы могут являться информацией. В то же время далеко не все связи или сообщения являются информацией. Если они не повышают ОНГ, они могут являтся шумом, деструктирую-щим действием, в отдельных случаях, в живой природе и дез-информациeй. Слово "обобщ„нность" включено в дефиницию для того, чтобы подчеркнуть, что универсальность понятия достигается в том случае, если учтены и оптими- зированы все влияющие на целевые критерии факторы. К этим относятся и априорные формы информации. В случае упрощ„нных мо-делей систем и инфо- передаче по классическим каналам связи можно применять и упрощ„нную де- финицию информации: Информацией является связь или отношение между системами, в результа- те которой повышается негэнтропия системы-при„мника. Одним из основных показателей состояния и форм су-ществования любых систем является ОНГ (связанная инфор-мация). Каждая система характеризу- ется обеими показа-телями как ОЭ, так и ОНГ. Их измеряют в одних и тех же единицах. ОНГ имеет отрицательный знак, но абсолютные цифры ОНГ и ОЭф не равны. Для одной системы и одного целевого критерия эти показатели связаны следующей формулой: ОЭф + ОНГф = ОЭм , где: ОЭф - фактическая ОЭ системы, ОНГф - фактическая ОНГ системы, ОЭм - максимально возможная ОЭ системы. Если известны 2 из тр„х показателей, то третий можно рассчитать. Та- ким образом, каждая система имеет три час-тично зависимые характеристики состояния. Это имеет какую-то аналогию с распределением в системе внут- ренней энергии. U = F + G = F + T . S, где: U - внутренняя энергия, F - свободная энергия, G - связанная энергия, S - энтропия, T - абсолютная температура. ИНФОДИАЛЕКТИКА Философская сущность понятия информации до насто-ящего времени пол- ностью не выяснена. Классики теории ин-формации и кибернетики не дали проблеме исчерпывающего объяснения. Н.Винер указал, что информация явля- ется ин-формацией, не материей или энергией. Под понятием "ма-терия" он подразумевал вещество и массу. Если под материей подразумевать всю объективную реальность, то информация содержится в этом понятии. Указа- ние того, чем информация не является, не решает проблему. Дефиниция, что инфор-мация является мерой упорядоченности, организованности не решает вопрос, на основании каких критериев устанавли-вается эта мера, и отно- сительно чего? Многие заблуждения вызваны т.н. теорией отражения диалектического ма- териализма [46, 47]. Уже это слово - отражение, может вызвать только не- доумение. Полное отра-жение мира во всем его многообразии или даже его ма-ленькой части, невозможно. Захламление сознания несущест-венными де- талями только затруднила бы процессы обработки информации и моделирова- ния. В действительности как созна-ние, так и органы при„ма информации выборочно принимают е„, обрабатывают и сохраняют в памяти. В публикациях опи-сано много вариантов т.н. отражательной концепции инфор-мации. И.В.Новик связывает информацию с упорядоченным отражением, тогда как не- упорядоченное хаотическое отраже-ние обозначается понятием "шум" [ 36 ]. Информацию старались по разному соединить с отражением. Е„ определили как сторону (часть) или вид (форма) отражения, категорию отражения, раз- нообразие отражения, "передаваемую" часть отражения, инвариант отраже- ния, необходимую предпосылку отражения, сторону отражения, допускающая передачу и объективирование, характеристику, аспект отражения, ак- тив-ное, целесообразное отражение. Бросается в глаза, что поня-тие "от- ражение" не содержит дополнительную информацию и его параллельное инфор- мации рассмотрение не имеет смысла. В процессе передачи информации решающее значение имеет система прини- мающая е„, точнее ОНГ системы. Дейст-вительно, если не было бы системы при„ма с его ОНГ, передача информации не могла бы состоятся. Следова- тельно основную роль в приеме, выборе и оценке имеет ОНГ или связанная информация в системе. Информация является функцией процесса, ОНГ - функ- цией состояния системы и имеет свойства инерции и памяти. Представляют интерес и взаимосвязи между инфор-мацией, ОНГ и диалек- тическим методом их исследования. До сих пор недостаточно раскрыто ин- формационное содержание диалектического метода. Уже в античные времена диалектика означала выяснение истины (т.е. подлинной информации) пут„м проведения диалога, противоборства разных мнений, факторов, идей. Действительно, к истине приближаются только тогда, когда выслушают мне- ние всех заинтересован-ных сторон. Значит, уже в античные времена кос- венно нача-лось применение методов, которые сейчас известны под наз-ва- нием системного и многофакторного анализа

Страницы: 1  - 2  - 3  - 4  - 5  - 6  - 7  - 8  - 9  - 10  - 11  - 12  - 13  - 14  - 15  - 16  -
17  - 18  - 19  - 20  - 21  - 22  - 23  -


Все книги на данном сайте, являются собственностью его уважаемых авторов и предназначены исключительно для ознакомительных целей. Просматривая или скачивая книгу, Вы обязуетесь в течении суток удалить ее. Если вы желаете чтоб произведение было удалено пишите админитратору