WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 2 | 3 || 5 | 6 |

«МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ им. М.В. Ломоносова ТВЕРСКОЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ На правах рукописи Гухман Владимир Борисович Философская сущность информационного подхода ...»

-- [ Страница 4 ] --

Мы восхищаемся проворностью Творца. Эволюции же Творец не требуется. Господь Бог или эволюция? – извечная дилемма. Многошаговые (бесконечношаговые) процессы с оптимизацией некоторой целевой функции, подобные эволюции и самоорганизации тезауруса, часто встречаются в задачах динамического планирования, распределения ресурсов, оптимизации транспортных перевозок и др. Для решения подобных задач есть свой аппарат - метод динамического программирования [11,30], суть которого сводится к следующему: из двух возможных способов решения многошаговых задач (искать сразу все элементы решения на всех шагах либо строить оптимальное управление шаг за шагом, на каждом этапе оптимизируя только один шаг) второй способ оптимизации проще, чем первый, особенно при большом числе шагов. Обратим внимание, что задачи распределения ресурсов и оптимизации транспортных перевозок, по существу, являются основными в биологических и интеллектуальных процессах метаболизма. Соответственно, нет оснований полагать, что природа для решения задач самоорганизации выбирает сложные пути (созидание) вместо простых (эволюция). Ее существующая сложность изначально проста. Наша задача - понять эту простоту. Было бы наивным полагать, что простота механизма самоорганизации в нашем понимании идентична простоте в «понимании» природы. Поиск простоты в сложности природы как одна из сторон реализации принципа простоты, по возможности, не должен быть слишком антропным. Достичь такого понимания природы, не ограниченного человеческим опытом, дано немногим. В физике XX века это, пожалуй, Бор, Эйнштейн, Лоренц, де Бройль, Паули, Гейзенберг, Ландау. Известный афоризм Н. Бора о теориях, недостаточно безумных, чтобы быть правильными, образно демонстрирует стиль, исповедуемый современной наукой. Проанализируем некоторые эмпирические примеры самоорганизации. В [111] приводятся примеры биологической самоорганизации (популяций амеб и термитов): при угрозе голода амебы стягиваются в единую многоклеточную массу, личинки термитов концентрируются в ограниченной области термитника. Подобная кооперативная самоорганизация свойственна любой популяции, т.к. «общий котел» всегда выгодней, экономней, чем раздельное питание. В этих примерах (вне зависимости от конкретного механизма самоорганизации каждой популяции) важно понять, что стимулом самоорганизации было достижение величиной разнообразия популяции некоторого контролируемого порога, вызывающего подпрограмму принятия «организационного решения». Подобный алгоритм самоорганизации характерен для коацерватных капель [101], развивающихся и конкурирующих фирм, государств, избирательных блоков, студентов перед экзаменом, семей и кланов и т.д. При этом глубинным мотивом кооперативной самоорганизации в общем случае является инстинкт самосохранения (выживания), проявляющийся не только при угрозе голода, но и при любой опасности со стороны враждебной среды. Так, «сытые» поодиночке предприниматели объединяются перед угрозой национализации частной собственности, слабые объединяются в стаи, племена, государства, (кон)федерации, союзы перед угрозой силы. Вполне вероятно, что и многоклеточные организмы появились в результате кооперативной самоорганизации одноклеточных, что облегчило совместное выживание, усвоение энергии и вещества, устойчивость в агрессивной среде [88]. В основе (на входе) любого организационного решения лежит информация - пока система не осознала входной информации, ни о каком решении речи быть не может. Это, если угодно, аксиома теории управления. Следовательно, к самоорганизации, действительно, можно придти только через познание собственного разнообразия. А познание без тезауруса, хранящего информацию и программу ее генерирования, невозможно. Итак, генерация информации происходит в процессе освоения (самопознания) системой приобретенного разнообразия, и этот процесс состоит в опосредованном (через разнообразие) распознавании и перекодировании внешней информации среды во внутренние более ценные информацион ные коды упорядоченности, смысла, знания (в зависимости от достигнутого системой уровня развития). Такое распознавание и перекодирование эквивалентно генерации все более ценных видов информации и возможно только при наличии программы развития и, в частности, программы генерирования информации1, по принципам своей работы сходной с принципами «неймановского компьютера». Это не случайное совпадение – фон Нейман тесно сотрудничал с Винером и другими пионерами кибернетики в выработке компьютерных и кибернетических концепций [32]. Программное управление объектом осуществляется посредством команд. При этом априори полагается, что энергетика команд может быть малой – значительно меньшей, чем энергетика объекта управления. И чем меньше потребная энергетика управления по сравнению с энергоресурсом объекта при неизменном качестве управления, тем управление эффективнее. Следовательно, наиболее эффективно в указанном смысле управление, вообще не требующее энергии – безэнергетическое управление. С другой стороны, из закона необходимого разнообразия следует, что ограничение, т.е. уменьшение разнообразия выходов объекта как цель управления достигается увеличением разнообразия управлений, т.е. ростом сложности регулятора. Но чем регулятор сложнее, тем он энергозатратнее. Налицо энергетическая антиномия оптимального управления: для достижения эффективного управления его энергетику надо одновременно уменьшать и увеличивать. Это говорит о скрытом энергетическом оптимуме управления как консенсусе разнополярных тенденций. Для поиска этого оптимума перейдем от энергетического базиса управления к информационному, опираясь на известный тезис Шеннона о том. что с информацией можно обращаться почти так же, как с массой и энергией, т.е. давать информации физическую интерпретацию по метапринципу аналогии. Начнем с того, что фундаментальную значимость закона необходимо Диссипация информации происходит «внепрограммно».

го разнообразия для управления, на наш взгляд, не следует преувеличивать. Во-первых, этот закон выведен только для гомеостатического управления в кибернетических системах. В иерархии задач управления гомеостаз состояний и процессов занимает самую нижнюю ступень [53], и это не случайно. Гомеостаз, как отмечалось, генетически связан с законами сохранения физических систем и поэтому, несмотря на свою распространенность, уступает по сложности многим алгоритмам управления, встречающимся в кибернетических системах. В этих алгоритмах, связанных не с сохранением, а с изменением состояний и процессов, единичными актами поведения, сериями и комбинациями единичных актов, закон необходимого разнообразия в лучшем случае соограничивает управления наравне с другими ресурсными ограничениями (по энергетике, запаздыванию, стоимости, живучести и т.п.), а в худшем случае излишен, если ни прямо, ни косвенно не связан с критерием эффективности управления, как при гомеостазе. Во-вторых, целеполагание любого управления в определенном смысле оптимально, т.е. либо максимизируется эффективность при заданных ресурсных ограничениях, либо минимизируются ресурсные затраты при заданной эффективности. Иными словами, любое управление решает экстремальную задачу относительно некоторой целевой функции при заданных ограничениях. Можно ли считать необходимый оптимум (минимум) разнообразия управлений, предлагаемый законом Эшби, достаточным для гомеостатического управления? На наш взгляд, нельзя, ибо этот оптимум априорен, т.е. зависим от априорного разнообразия воздействий среды на объект управления. Достаточный оптимум достижим только в адаптивном регуляторе, в котором ресурс разнообразия управлений закладывается с учетом возможных вариаций разнообразия возмущений от ожидаемой среды обитания объекта, а необходимые управления адаптивно формируются с учетом текущего разнообразия возмущений. Поскольку текущее разнообразие управлений не превышает своего максимально возможного значения для адаптивного регулятора, последний всегда имеет резерв управлений, требующий ресурсных затрат и, как показывают системные исследования, не беспредельный. В системных исследованиях подобные задачи известны как проблема отношений «эффективность-ресурс», «эффективность-сложность», «эффективность-стоимость», где ресурс и сложность могут быть сведены к понятию стоимости как количественной меры любой платы (материально-энергетической, финансовой, психологической, социальной и т.п.) за ресурс или сложность [46,53,126]. Эффективность управления тоже может измеряться в единицах стоимости как доход, обеспечиваемый ресурсными затратами на управление, его усложнением. Далее рассмотрим задачу управления как проблему отношения «эффективность-стоимостьсложность», где под сложностью будем понимать функционал от разнообразия управлений. Известные в системном анализе типовые зависимости эффективности и стоимости от сложности системы представлены на рис. 17, где эффективность и стоимость приведены к общим условным единицам измерения, а сложность характеризует разнообразие управлений. Здесь же – соответствующая кривая отношения «эффективность/стоимость».

стоимость эфф-ть эфф./стоим.

Сложность Рис. 17. Эффективность-стоимость-сложность (вариант) На рис. 18 приведена типичная зависимость безусловной информационной энтропии источника (системы) от объема алфавита его состояний. Напомним, что согласно принципу роста разнообразия алфавит состо Информационная энтропия Объем алфавита состояний Рис. 18. Энтропия - сложность яний реальных источников информации стратифицирован по сложности, т.е. представляет многократную показательно-степенную функцию типа (22), где каждый показатель степени соответствует своему иерархическому уровню сложности вплоть до того надуровня, для которого и оценивается разнообразие состояний. Последнее, в свою очередь, будет служить объемом алфавита для вышележащего уровня иерархии страт сложности. Поэтому аргумент n на рис.18, имеющий смысл объема алфавита на i-ом уровне иерархии сложности, является разнообразием состояний Q на (i-1)ом уровне стратификации согласно формуле (19). Иными словами, сложность регулятора как источника команд (информации) управления на рис. 17 и 18 имеет одинаковый смысл – смысл разнообразия управлений. Обратим внимание на следующие особенности поведения эффективности, стоимости и информационной энтропии регулятора с изменением его сложности: 1) существует оптимальное (максимальное) отношение Эффективность/Стоимость;

недостаточное разнообразие управлений вредно не меньше, чем и его излишняя избыточность;

2) тренды Эффективность-Сложность и Энтропия-Сложность по добны, хотя математически логистическая кривая Эффективность(n) отличается от зависимости H(n) тем, что первая содержит экспоненциальное ядро, а вторая – логарифмическое;

3) с ростом сложности регулятора его стоимость растет непропорционально быстро по сравнению с ростом эффективности управления;

4) кривая Эффективность(n) имеет предел, а H(n) его не имеет, медленно, но монотонно стремясь к бесконечности. За внешним подобием тенденций поведения эффективности и информативности регулятора с изменением разнообразия его управлений, повидимому, скрывается их сущностная корреляция. Для этого достаточно вспомнить (см. раздел 2.1), что «ограничение разнообразия» есть одно из определений внешней информации. И оно же есть одно из определений управления. Можно возразить, что поведенчески энтропия подобна эффективности лишь в математическом смысле – просто потому, что мы используем из некоторых соображений логарифмическую меру информации. На самом деле такая мера вполне физична (см. раздел 2.2.2). Проинтерпретируем характер зависимостей эффективности и стоимости регулятора от его сложности. Грань между реальностью и мнимостью любой системы обусловливается, в конце концов, ее сложностью. Так, стабильная кибернетическая система согласно закону необходимого разнообразия должна иметь определенный минимум сложности для самоорганизации и жизнеспособности. Слишком простая система не способна адекватно реагировать на многообразие возмущающих воздействий внешней среды. В то же время увеличение сложности сверх некоторого порога увеличивает вероятность отказа системы, если последняя не предпринимает мер по ресурсному обеспечению возросшей сложности. Для поддержания ее живучести при отказах требуется введение резервных цепей, узлов, агрегатов, взаимосвязанных через сложную систему саморе гулирования, т.е. дальнейшее усложнение. Пример этому - растения, животные и человек, которые, несмотря на болезни, раны и даже клиническую смерть, выкарабкиваются снова и снова за счет включения внутреннего горячего резерва в экстремальных ситуациях. При этом нельзя считать, что резервирование всегда полезно для сложной системы. Занимая некоторую физическую часть системы, резерв отнимает часть ее энергетического и информационного ресурсов и иногда вступает в неожиданные и конфликтные взаимодействия с основным (активным) ресурсом системы. Так, в технических системах известны несредств компьспровоцированные срабатывания аварийных агрегатов, сбои и внутренние конфликты переусложненных аппаратно-программных ютеров (например, при внедрении мультимедийных и телекоммуникационных технологий) и т.д. Аналогичные проблемы свойственны биологическим системам (мозг в состоянии психической перегрузки), крупным популяциям, сложным организационным системам. Сложная сверх меры система становится внутренне противоречивой (конфликтной) и как бы «пожирает саму себя», уплатив слишком высокую цену за свою эффективность - вот в чем проблема, во многом давшая начало современной теории конфликтных ситуаций [55,124]. При этом стоимость каждого грана эффективности для развитой системы непропорционально выше, чем для неразвитой, что и отражает график стоимости на рис. 17. Следовательно, есть предел сложности, выше которого реальность стабильного материального существования системы так же сомнительна, как и при ее недостаточной сложности. Поэтому жизнеспособная система, приблизившись по сложности к этому пределу, если и развивается дальше, то только не в сторону усложнения своей морфологии. Возможно, поэтому многие виды жизни на Земле или не эволюционируют в течение десятков тысячелетий, или их эволюция протекает очень медленно, или они вымирают, превысив допустимую (по стоимости) сложность. Возможно, по той же пpичине развитие мозга высших животных и человека давно уже идет не по морфологическому пути (пpедел достигнут), а по инфоpмационному и функциональному (накопление и генеpация новых знаний и умений, личностная и популяционная интеллектуализация). Итак, предельность эффективности регулятора обусловлена его ресурсными, прежде всего материально-энергетическими ограничениями, налагающими запрет на безудержный рост стоимости управлений. В то же время беспредельность энтропии (информативности) можно объяснить ее внеэнергетической природой. Так, ограниченный по памяти и быстродействию компьютер в то же время не имеет принципиальных информационных ограничений по сложности решаемых задач, т.к. программы в потенции сгенерируют любую недостающую ему информацию. Аналогично не существует принципиальных теоретических ограничений на уровень естественного и искусственного интеллектов, управляемых программами самообучения. Но плата за программы неизбежна со стороны как компьютера, так и программистов, и здесь возникает оптимизационная задача, приводящая нас к информационному принципу управления: управление информационно-энергетически оптимально, если выбрано такое разнообразие управлений, при котором потенциально достижим максимум информативности управления на единицу ресурсных затрат. Оптимальность разнообразия управлений физически означает невозможность ни убавить управления (во избежание опасной несенситивности регулятора в результате нарушения закона необходимого разнообразия), ни прибавить их (во избежание чрезмерных для регулятора ресурсных затрат). Если разнообразие управлений меньше требуемого по закону необходимого разнообразия, информативность управления будет низкой, далекой от оптимума, ибо при этом не достигается необходимое ограничение разнообразия возмущений. Поэтому информационный принцип управления может включать в себя закон необходимого разнообразия в качестве ограничения.

Информационный принцип управления созвучен феноменологическому определению эстетического качества Гемстергейса (XVIII в.) как «сообщению возможно большего числа представлений в возможно меньшее время» [12, с.74], эстетической мере Г.Д. Биркгоффа как отношению меры «порядка» к мере «сложности» (усилий понимания) [там же], принципу «наименьшей затраты сил» Р. Авенариуса и отчасти принципу «экономии мышления Э. Маха. Воспользуемся математическими дескрипциями кривых информативности и стоимости регулятора для вывода закона на основе сформулированного информационного принципа управления. Математическая формулировка этого принципа имеет следующий вид:

где, - константы (- константа первоначальных ресурсных затрат, >0 – константа скорости (темпа) роста стоимости ресурса ). Решение (34) относительно при b=e имеет следующий вид:

dlog n b =0 den (34) = 1 n ln n (35) На рис.19 приведена зависимость (n).

Темп роста стоимости Сложность Рис. 19. К информационному принципу управления Представим теперь информативность регулятора не в логарифмиче ской, а комбинаторной форме nm, где m – длина сообщений (команд). Тогда информационный принцип управления ( 34) приобретает вид: dn m =0 (36) n de Решение (36) :

= m n (37) Из ( 35) и (37) следует, что вне зависимости от формального представления информативности регулятора оптимальные информационноэнергетические управления по мере роста n, т.е. с повышением сложности («интеллекта») регулятора в ходе его развития требуют все меньшего прироста ресурсных затрат, а в пределе (при n) – нулевого прироста (0). Следовательно, у высокоинформативных интеллектуальных систем информационные процессы, начиная с некоторого достаточно большого n, практически не требуют дополнительной энергетики (и других ресурсов). Налицо информационная экспансия – с ростом сложности системы ее информативность (внутренняя информация) растет, а потребность в увеличении ресурсных затрат уменьшается и в пределе фиксируется на нулевом приросте, что соответствует исходному уровню затрат (рис. 20)..

Информация Стоимость Сложность Рис. 20. К закону информационной экспансии. Поэтому назовем выведенный закон законом информационной экспансии и сформулируем его в следующем виде: чем более информативна система, тем меньше должен быть темп роста ее стоимости, при этом сама стоимость должна стабилизироваться на уровне первоначальной (до начала развития) ресурсной платы.

Философский смысл закона информационной экспансии мы усматриваем в следующем. Если перейти от понятия регулятора к понятию системы, то вопреки материально-энергетической тенденции убыстрения роста стоимости системы по мере ее усложнения и роста информативности задача согласно выведенному закону состоит как раз в обратном – с усложнением системы темп роста стоимости (а значит, энергетических затрат) должен асимптотически стремиться к нулю, стабилизируя стоимость оптимальной системы на уровне ее первоначальных ресурсных затрат (рис. 20). Такой парадоксальный вывод противоречил бы всем канонам классической науки и здравому смыслу, если бы мы игнорировали возможность безэнергетического (несилового) или, по крайней мере, малоэнергетического информационного управления, обсужденного в главе 2. Но мы не будем этого делать, мы не будем игнорировать такой возможности, хотя аподиктических, общепризнанных данных на этот счет нет. Что ж, все научные и философские концепции при своем возникновении не были аподиктическими. Часть из них приводила к отрицательным (пока!) результатам, другая – к положительным (пока!). Из этого вовсе не следуют умозаключения об абсолютной пользе общепринятых и абсолютном вреде непризнанных концепций. Последуем мудрости Н. Винера, который призывал: «Когда единственный недостаток доказательства – его необычность, пусть у вас достанет смелости принять и его, и эту необычность» [31, с.343]. Закон информационной экспансии по своей природе интенционален, обусловлен сознанием, поэтому пока возможные области его действия – гносеология, праксеология, но не онтология. Впрочем, с вероятностью, отличной от нуля, не исключены и онтологические корни данного закона, что представляет интерес для дальнейших исследований Закон информационной экспансии с позиций, внешне весьма далеких от концепции информационного монизма и герменевтического подхода к понятию отражения, от теорий информационного и калибровочного полей, косвенно указывает на оптимальность чисто информационного управления как перспективы развития традиционного информационноэнергетического управления с его проблематичной оптимальностью. У простейших систем с конечным относительно малым разнообразием управлений (n>1) скорость >0, что означает допустимость энергозатратного управления. У сложных систем (биосистем, животных, человека, перспективных компьютеров) с n скорость 0, и энергозатратное управление становится недопустимым (первоначальные затраты не увеличиваются). Если предположить, что человек как система (регулятор) оптимален (а на этом настаивают все антропоцентрические учения), то все его высшие управления, направленные вовне и внутрь себя, чисто информационны. Высшие формы управления (регуляции) требуют погружения системы (регулятора) в информацию и только в нее, разрешая использовать для этого минимум имеющихся ресурсов. Физически это может быть объяснено тем, что с ростом сложности (и, соответственно, энергозатрат) материальных регуляторов обычно возрастает их внутренний уровень шумов, что загрубляет чувствительность каналов связи. Достаточно сравнить эти чувствительности у насекомых, рептилий, птиц и далее по восходящей - вплоть до человека, чтобы убедиться в этом. У высших (сверхсложных) регуляторов шумы, если не предпринять специальных мер, могут вообще элиминировать связь как таковую. Такими мерами, на наш взгляд, и являются чисто информационные управления, инициируемые особыми состояниями регулятора, далекими от «шумящей» энергетики традиционных управлений. На необходимость и, более того, на реальность таких особых состояний указывает закон информационной экспансии, подтверждаемый на практике прогрессом энергосбережения в компьютерах по мере их эволюции от энергозатратных вы числительных машин (мэйнфреймов) 50-70 г.г. к современным и, тем бо лее, перспективным микроминиатюрным информационным компьютерам, возможности которых по обработке информации ушли далеко вперед по сравнению с ЭВМ – «большими калькуляторами» прошлых десятилетий и все больше конкурируют с информационными возможностями человека. Другой пример – эволюция постиндустриального общества в информационное с его культом знаний, информацией как национальным ресурсом и производительной силой, перекачкой трудовых ресурсов из сферы материального производства в информационную сферу. Из закона информационной экспансии следует, что хороший регулятор отличается от плохого оптимальным разнообразием своего командного языка. Но разве мало примеров, что при одинаковом уровне оптимальности одни регуляторы эффективны, а другие нет? Дело в том, что информационный оптимум управления интенциально возможен (достижим по информационному принципу управления), он целеполагается, но он не ригористичен (как не ригористичен закон информационной экспансии). Именно в этом смысле надо понимать его принципиальную достижимость. И суть здесь в том, что каждая из потенциально возможных команд управления не равновозможна, а разновозможна в использовании. Равновозможность – лишь гипотетический частный случай разновозможности команд. Во-первых, разновозможны элементарные команды (микрокоманды), причем степень разновозможности применения даже одной микрокоманды зависит от области применения (литературной, научной, бытовой, публицистической и т.п.). Во-вторых, разновозможны комбинации микрокоманд (команды, макрокоманды), ибо ценность каждой команды (макрокоманды) зависит от ситуации управления. В этом смысле управления по ценности должны быть релевантны, адекватны ситуации, сложившейся для объекта управления в его среде обитания. В этом состоит интенциональный принцип максимума внешней информации, или просто принцип максимума информации как следствие за кона информационной экспансии: любой информационный процесс управления направлен на максимизацию информационно-регулятивного эффекта при допустимых ресурсных затратах.

Этот принцип так же всеобщ, как и изложенные выше принципы и законы. Он действует в косной и живой природе, будь то взаимодействие лекарства с вирусом, произведения искусства с созерцателем, власти с народом и т.п. В синергетике этот принцип был обоснован М. Эйгеном в рамках развитой им теории диссипации [88]).

биоэволюции как принцип селективной цен ности информации [168], а также Н.Н. Моисеевым (принцип минимума В [43] принцип максимума информации для биосистем сформулирован в следующем виде: «организм стремится обеспечить максимум взаимной информации между стимулами и реакциями» [с.16].

3.1.2. Закономерности преобразования информации в актах познания и управления Рассмотрим элементарный информационный процесс - одностороннюю связь:

источник (внутренняя информация в форме символов) кодер (ко ды) передатчик (сигналы) среда (сигналы, помехи) приемник (коды) декодер (символы) потребитель (внутренняя информация). Данный процесс фундаментален, т.к. включен во все более сложные информационные процессы (двусторонний, иерархический, многосвязный, сотовый, циркулярный, кольцевой и др.). Именно поэтому мы его исследуем. Если информационный процесс явлен в материально-энергетической форме, то коды – знаковая интерпретация внутренней информации источника, сигналы – материально-энергетические носители кодов. В безэнергетических (несиловых) информационных процессах коды – символы информационного поля, сигналы – безэнергетические носители этих кодов.

Помехи – возмущающие воздействия среды на сигналы.

Из предъявленной схемы связи, пограничными феноменами которой являются внутренняя информация источника и внутренняя информация потребителя, следует: связь как процесс есть установление понимания источника потребителем информации;

связь как результат есть понимание источника потребителем.

Отсюда проблема связи есть герменевтическая проблема. Понимание как цель связи имплицирует адекватность кодов символам, переданных сигналов кодам, принятых сигналов переданным и, наконец, отображения в потребителе отображаемому источнику. Установление понимания есть коммуникативный процесс, для которого важны надежность и быстродействие.

Данные утверждения в определенной мере расходятся с общепринятым понятием связи как коммуникации (и только!). Возможно, такое представление о связи обусловлено этимологической полисемией словарей - в частности, английскому слову communication соответствуют более десятка русских слов, в том числе связь;

возможно, это представление перекочевало из кибернетики, теорий информации и связи, устойчиво ориентированных на процессуальную роль связи1. Как бы то ни было, но философское понятие связи представляется нам шире его традиционной интерпретации. Первыми рассмотрим принципы кодирования, которые должны реализовывать коды, оптимальные в изложенном выше информационном смысле. Во-первых, речь идет о лингвистической оптимальности. Язык кодера должен обеспечить первичное преобразование знаков исходного сообщения источника в кодовые символы, понятные передатчику сообщений. И чем больше разных кодовых символов, различаемых передатчиком, тем сложнее должны быть и кодер, и передатчик. Отсюда проблема простоты кода. Она особенно важна для простых систем, например, искусст венных. Не менее важна и проблема краткости кода, напрямую связанная с быстродействием информационного процесса. Эта проблема важна для Внимание автора на данную проблему обратил И.Н. Ястремский.

систем с ограниченным ресурсом времени, например, для биосистем. Требования простоты и краткости взаимопротиворечивы. Во-вторых, кодер, находясь между источником информации и каналом связи, должен быть по входу информационно согласован с выходом источника, а по выходу - со входом канала связи. Цель этого двукратного согласования - обеспечение своевременности и сохранности информации при ее передаче по зашумленному каналу связи. Если в технических системах необходимость информационного согласования кодера в указанном смысле уже давно очевидна, то хотелось бы обратить внимание на всеобщность принципа согласования кодера вне зависимости от природы объект субъектной системы. Исходное сообщение объекта-источника информационно всегда избыточно, будь то извержение вулкана или речь политика, поворот руля или смена парадигмы, мысль или слово. Избыточность здесь понимается в том смысле, что каждый знак исходного сообщения из-за объективной неравновероятности использования и межзнаковой зависимости несет информацию, заведомо меньшую максимально возможной, которая, в свою очередь, достигается только при равновероятности и независимости знаков [42,52]. Следовательно, одну и ту же информацию можно передать меньшим числом знаков, если каким-то образом компенсировать их неравновероятность и коррелированность. Вот эта разница между реальным и оптимальным числом знаков и характеризует избыточность исходного сообщения, которая, в свою очередь, ответственна за запаздывание (несвоевременность приема) информации в целом. С другой стороны, объективная открытость реальной системы произвольной природы означает наличие у нее не менее одного входа, не зависимого от системы, но зависимого от ее среды обитания. Следовательно, в общем случае цель системы и цель среды тоже независимы, а в частном худшем для системы случае связаны жесткой обратной зависимостью, т.е. противоположны.. В результате воздействия среды на открытую систему чаще не способствуют, а мешают цели системы. Эти мешающие воздействия (помехи) на канал связи системы приводят к ошибкам несовпадения переданной и принятой информации. Для компенсации (обнаружения и коррекции) этих ошибок испытанное средство - избыточность, например, в виде простейшего повторения сигнала. Очевидно, что число таких повторений не должно быть слишком большим во избежание недопустимого запаздывания. Итак, для обеспечения своевременности информации избыточность сообщений источника должна быть минимизирована (согласование входа кодер источника), для обеспечения сохранности информации избыточ ность закодированного сообщения должна быть согласована с состоянием канала связи, т.е. с характером и уровнем помех (согласование выхода кодер канала). Оба вида согласования взаимно противоречивы, но объек тивно необходимы кодеру. В результате обобщенные структуры кодера и декодера имеют вид, изображенный на рис. 21, где кодер источника и кодер канала объединены в т.н. кодер Шеннона [42,52].

От источника Первичный (лингвистический) кодер Кодер Кодер источника канала КОДЕР ШЕННОНА К каналу связи Знаки Первичные коды Эффективные Помехоустойчивые коды коды Декодер канала Из канала связи Лингвистический К потребителю декодер Декодер источника Рис. 21. Кодеры и декодеры Напомним, что кодеры входят в структуры как естественных, так и искусственных систем, приобретая самые причудливые, а часто латентные формы, о которых мы можем только догадываться. Лингвистический (первичный) кодер и кодер Шеннона подчиняются каждый своим принципам кодирования, которые мы и рассмотрим.

Принцип сохранения разнообразия (информации). Кодирование на языке математики есть однозначное функциональное отображение F счетного (конечного) множества А неповторяющихся знаков на множество В кодов : В=F(A). Здесь А – множество с разнообразием NА, равным численности множества, т.е. все элементы ai (aiA) i=1,2,…N A не повторяются. Соответственно и множество В есть множество с разнообразием NB, равным разнообразию множества А (biB) i=1,2,…N B где NA= NB. При этом объем исходного алфавита знаков (nи) в общем случае не равен объему алфавита кодера (nк) и, соответственно, при NA= nи NB. nк. Равенство разнообразий множеств А и В принципиально. Задача кодирования и состоит в том, чтобы отображение F при разных (в общем случае) алфавитах источника и кодера обеспечило равенство NA= NB. В этом и состоит принцип сохранения разнообразия, сформулированный У.Р. Эшби: при кодировании посредством взаимооднозначного преобразования разнообразие не изменяется [170].

Математическая строгость этого принципа при однозначном функциональном отображении очевидна, т.к. каждому элементу ai отображение F сопоставляет элемент bi при NA= NB. Проблема состоит в реализации F, и эту проблему природа и человек решают в меру своих возможностей и отпущенного времени. Итак, кодирование – это преобразование исходного разнообразия источника информации с сохранением разнообразия. Или проще, кодирование – это преобразование информации без ее потери. Поэтому в равной степени принцип сохранения разнообразия можно называть кодовым принципом сохранения информации. Принцип выбора кода (лингвистический кодер). Вопрос о выборе кода привычен для человеческой практики. Он ставится всякий раз при создании новой информационной системы - компьютерной, связной, диагностической, библиотечной и т.п. У нас нет оснований полагать, что подобный вопрос не возникал при возникновении (создании) Универсума (Тво рения) и жизни в нем. Решался ли он длительным естественным отбором (эволюция) или однократным выбором (Логос, Бог), непринципиально. На рис. 22 nи - объем первичного алфавита (основание знакового кода), nк - основание кода кодера. Источник информации (nи) Знаки nи =10 РавноКод мерный nr =2 Неравномерный Знаки Коды Кодер (nк) Двоичный код 1 2 3 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 0 1 10 11 100 101 110 111 1000 Рис. 22. К выбору лингвистического кода В принципе каждому знаку (букве, символу) можно сопоставить свой код, т.е. объемы первичного и вторичного алфавитов можно сделать одинаковыми: nи= nк. Это обеспечивает максимально возможное быстродействие кода, т.к. одному знаковому символу соответствует один кодовый символ. Но при большом знаковом алфавите кодер получится слишком сложным, ненадежным и дорогостоящим. Так, если nи= nк=32, в электронном кодере потребуются элементы с 32 устойчивыми состояниями (токовыми, потенциальными, полевыми). Современные электроника, оптоэлектроника и спинэлектроника вряд ли смогут предложить нечто приемлемое в обозримом будущем. Поэтому, как правило, алфавит кодера, предназначенного для кодирования текстов и десятичных чисел, удовлетворяет неравенству nи> nк. Но уменьшая алфавит кодера, мы расплачиваемся удлинением кодовых комбинаций, соответствующих знакам первичного алфавита. Как следствие, удлиняются закодированные сообщения. При этом увеличивается память (место) для их хранения и время для их передачи. Например, при nк=10 (десятичный код) представим некоторое закодированное сообщение в виде цепочки независимых кодов от 0 до 9: 591704852 (9 символов). То же сообщение в равномерном двоичном коде (nк= 2) имеет вид: 010110010001011100000100100001010010 (36 символов). Длина сообщения получилась в 4 раза больше, чем в десятичном коде, т.к. каждой десятичной цифре соответствует тетрада двоичных символов (квадруплет на языке биологии). В неравномерном двоичном коде сообщение укоротится до 24 символов: 101100111110100100010110. И все равно проигрыш в лаконичности по сравнению с десятичным кодом составляет примерно 2,7 раза. При этом, начиная с первого же символа сообщения, закодированного неравномерным кодом, оно неоднозначно - первым декодируемым знаком может оказаться 1 (1) или 2 (10) или 5 (101). Неоднозначность (трек ошибок) декодирования охватывает все сообщение. Таким образом, за лаконичность (быстродействие) неравномерного кода приходится платить его неоднозначностью, для компенсации которой потребуются специальные меры [99]. Лаконичность первичного лингвистического кода чрезвычайно важна для систем, существующих в конечном времени («смертных» ). От длительности информационных процессов зависит их жизнь – скорость развития во враждебной среде, конкурентоспособность, реакции на возмущения, адаптивность. Чем лаконичнее код информационного процесса, тем система жизнеспособнее, чем длиннее код, тем система уязвимее. С другой стороны, как показано выше, за лаконичность кода приходится платить его сложностью – ростом основания nк, что приводит к морфологическим осложнениям для системы. Налицо противоречие - необходимость в одновременном удовлетворении двум противоположным требованиям: минимизации кодового алфавита (nк) и длины кода (m). Выход один – минимизировать мультиплика тивную суперпозицию nк и m, например, их произведение nк m. В [50] показано, что устойчиво оптимальным по критерию min(nк m) является троичный код. Практически мало уступают ему двоичный (компьютерный) и четверичный (генетический) коды. Конструкторы ЭВМ остановились на двоичном коде, т.к. его аппаратно-программная реализация оказалась наиболее простой, надежной и удобной для арифметическологических операций и современной схемотехники. Если бы этим условиям удовлетворяли троичный или четверичный коды, один из них, несомненно, стал бы компьютерным кодом в силу своей экономичности по длине кода m. А поскольку природе в результате длительной эволюции оказалось под силу то, чего пока не могут добиться инженеры за отпущенное им время, смехотворно короткое по сравнению с эволюцией, четверичный код как самый лаконичный из тройки оптимальных кодов стал генетическим, хотя он и несколько проигрывает троичному коду по интегральному критерию оптимальности. Итак, первый принцип кодирования - принцип выбора кода - может быть сформулирован так: если для объект-субъектной системы безразлична скорость информационного процесса («бессмертная» система), то асимптотически оптимальным является самый простой - единичный код, при котором разнообразие состояний обеспечивается за счет разного числа одинаковых кодовых символов;

в противном случае («смертная» система) асимптотически оптимальным является код максимально достижимой для системы сложности, в пределе - с объемом алфавита, равным разно образию состояний объекта. Данный принцип проясняет, почему в системах живой природы, начиная с биоклетки и выше, существует тенденция нарастания сложности кодов: от генетического к белковому, от белкового к тканевому, от тканевого к кодам органов и далее – вплоть до языков человеческого общения. Очевидно также, что эти языки – естественные и искусственные (символические) – не исчерпывают по объему алфавита всего разнообразия состояний объекта, в частности человека, и, следовательно, не оптимальны по скорости. Причина – трудность реализации оптимальных кодов, следствие – неисчерпаемые резервы в кодировании и, соответственно, в быстродействии информационных процессов, когда единственным ограничением этого быстродействия будет скорость передачи сигналов в канале связи. Не являются ли реализацией этих резервов «быстрые» образные, интуитивные, под- и надсознательные языки парапсихологического общения в системах «человек-человек», «человек-информационное поле» с кодовыми символами в виде гештальтов и с сообщениями в виде последовательностей ассоциативно связанных гештальтов? В то же время простейшие системы - химические элементы - отличаются друг от друга числом электронов (ne) и протонов (np) в атомах, причем в одном нейтральном атоме ne=np, что позволяет утверждать о «единичном атомном коде» – число единиц электронов или протонов однозначно характеризует «сообщение» о химическом элементе.

Принципы согласования кодов (кодер Шеннона). Как следует из из ложенного, кодер источника (КИ) в составе кодера Шеннона ликвидирует избыточность сообщения, насколько это возможно, а кодер канала восстанавливает ее, насколько это необходимо. Подобная нелогичность манипуляций с избыточностью объяснима, если учесть, что кодеру источника известна реальная, но не оптимальная (необходимая) избыточность. Это объясняется отсутствием информации у кодера источника о состоянии канала связи. Последнее известно только кодеру канала (КК) при условии, что у него есть средства «зондирования» канала, например с помощью «разведывательных» пилот-сигналов, о качестве прохождения которых через канал сообщается кодеру по каналу обратной связи. Поэтому проще сначала максимально возможно сократить избыточность сообщения в кодере источника, а затем добавить ее ни больше, ни меньше той, которая действительно необходима для заданного качества передачи сигналов и переносимой ими информации, что обычно и делается. При этом, если помехи в канале несущественны, от избыточности со общений целесообразно избавиться полностью, а кодер и декодер канала могут вообще не потребоваться. Если же избыточность сообщений несущественна, а помехи в канале велики, кодер Шеннона может не содержать кодер источника (аналогично не нужен и декодер источника). Эти ситуации показаны в таблице 2. Таблица 2. Варианты кодера Шеннона1 Помехи Избыточность есть нет КИ, КК, КК, ДК есть ДИ, ДК КИ, ДИ нет Принцип экономного кодирования. Пусть лингвистический кодер как источник информации создает на входе кодера Шеннона сообщения длиной L символов с информативностью каждого символа (энтропией) HИ. Тогда информативность всего сообщения будет LHИ. Пусть кодер источника посимвольно перекодирует это сообщение в неравномерный (в общем случае) код2, причем на один символ исходного сообщения требуется в среднем символов нового кода с информативностью каждого символа HК. Тогда информативность выходного сообщения кодера источника будет равна LHК. Исходя из принципа сохранения разнообразия (информации), LHИ = LHК Отсюда = HИ / HК (39) Безизбыточное (экономное) кодирование, соответствующее минимальному, очевидно, достигается при максимуме HК, что, как следует из (4), возможно, если символы кода равновероятны и независимы друг от друга. Это соответствует значению HК = log nк, где nк - объем алфавита кодера источника. Отсюда min = HИ / log nк 1 (38) ДИ – декодер источника, ДК – декодер канала. Кодовые комбинации неравномерного кода имеют разную длину.

А поскольку абсолютная безизбыточность кода недостижима, реальный экономный код удовлетворяет неравенству HИ / log nк (40) Итак, принцип экономного кодирования по Шеннону требует максимальной информативности каждого кодового символа («словам должно быть тесно, мыслям просторно»), т.е. максимальной энтропии кодера источника. При этом сообщения передаются без задержек со средней скоростью (производительностью), сколь угодно близкой к пропускной способности канала связи. Реализация этого принципа состоит в следующем [42,99]: • наиболее вероятным (часто встречающимся) символам первичного сообщения должны соответствовать самые короткие кодовые комбинации и, наоборот, маловероятным символам – самые длинные;

• при неравновероятности появления символов первичного алфавита в сообщениях экономный код должен быть неравномерным, т.е. кодовые комбинации должны иметь разную длину, при равновероятности символов экономный код вырождается в равномерный – все кодовые комбинации по длине равны. Знакомство с частотными словарями различных естественных подъязыков (разговорных, публицистических, литературных, научно-технических) показывает, что в подъязыках (и, значит, в языке в целом) наиболее часто используются самые короткие части речи – предлоги, союзы, артикли, частицы, местоимения, междометия [133]. Таким образом, в естественных языках выполняется принцип экономного кодирования. Надо полагать, что и в языках фауны и флоры преобладают по частоте тоже короткие словоформы, в частности, междометия, что подтверждает зоопсихология. В искусственных языках принцип экономного кодирования составляет основу т.н. эффективного кодирования [99] (коды Морзе, ШеннонаФано, Хаффмена, коды дорожных знаков, алфавитных клавиатур и т.п.). Само существование эффективных кодов базируется на неравновероятно сти символов первичных (естественных ) алфавитов, подтверждением чему являются текстуальные частоты букв русского алфавита и соответствующие им эффективные коды Шеннона-Фано [29]: Таблица 3. Кодирование букв кодами Шеннона-Фано Щ Э Ф Пробел О Е А…Ц 0,145 000 0,095 0,074 001 0100 0,064 … 0,004 0,003 0,003 0,002 0101 …11111101 11111110 111111110 Буква Частота Код Принцип надежного кодирования. В отличие от идеального канала связи без помех, которому не свойственны ошибки передачи, в реальном канале подобные ошибки возникают всегда. Для их компенсации в кодере Шеннона предусмотрен кодер канала (в декодере ему соответствует декодер канала). Таким образом, согласование кодера Шеннона с каналом связи означает минимизацию вероятности ошибки передачи сообщений до некоторого допустимого значения, отличного от нуля. Для этого кодер канала, прежде чем послать на передатчик сообщение, кодирует последнее конечным избыточным (помехоустойчивым) кодом – таким, что декодер канала может обнаружить и даже исправить ошибки передачи [42,52]. Шеннон доказал возможность помехоустойчивого кодирования [160], сформулировав известную теорему: если производительность источника информации не превышает пропускной способности канала связи, то всегда можно закодировать сообщение так, чтобы оно было передано без задержек с вероятностью ошибки, сколь угодно близкой к нулю.

Примем эту теорему в качестве принципа надежного кодирования. Заметим, что сколь угодная близость к нулю не означает равенства нулю. Абсолютное исключение ошибок (вероятность ошибки равна нулю) невозможно, ибо потребовало бы бесконечно длинных сообщений (бесконечной избыточности). Принцип надежного кодирования лежит в основе деятельности систем, информационные каналы связи которых подвержены помехам (шу мам). А поскольку таковы все системы, то и принцип надежного кодирования является всеобщим. При этом вид помехоустойчивого кода специфичен для каждой отдельной системы. Принципы экономного и надежного кодирования взаимно противоречивы, поэтому выбор оптимального по лаконичности и помехоустойчивости кода, адекватного передаваемой информации, - непростая задача, решаемая индивидуально в каждой объект-субъектной системе. Принципы кодирования имеют прямое отношение к общим гносеологическим проблемам понимания, объяснения, взаимопонимания, доказательства, к проблеме отражения в целом. Через уяснение принципов кодирования можно понять, почему не существует объективного информационного отражения. Главная причина различий в отражениях одного и того же объекта – в различном кодировании-декодировании внешней информации («языковом барьере»). При этом иногда различия начинаются прямо с этапа кодирования, если декодер функционально не согласован с кодером, являющимся, в свою очередь, составной частью объекта. За этапом кодирования информации следуют этапы передачи-приема сигналов, подчиняющиеся принципам коммуникации (связи в традиционном понимании). Рассмотрим их.

Принцип объективности помех. В любом канале связи всегда присутствуют помехи. Это и есть принцип объективности помех. Докажем его.

Внутренний шум, как и внутренняя информация, свойствен любому объекту. Он обусловлен естественным теплообменом элементов объекта, хаотическим движением зарядов при ионизации атомов и молекул (термоэмиссия, инжекция и др.), квантовой природой излучений. Внешний шум обусловлен аналогичными процессами в среде, а также помехами искусственного происхождения. Шумы вредны для связи, и их всегда стараются уменьшить. Однако наши возможности в этом ограничены.

Так, чувствительность Р (как минимальная мощность обнаруживаемого сигнала) для радиоприемника с конечной полосой пропускания f определяется по формуле [142]: P = k[T0(Ш-1)+TА] f, (41) где k - постоянная Больцмана, To - абсолютная температура приемника по Кельвину (обычно 290-300°К);

Ш - коэффициент шума приемника - отношение сигнал/шум по мощности, необходимое для обнаружения сигнала обнаружителем (человеком или автоматом);

TА - шумовая температура антенны, обусловленная внешними шумами подстилающей (земной, водной) поверхности и неба, а также омическими потерями в антенне. Из (44) следует, что для достижения абсолютной чувствительности (P 0 ) при ненулевой полосе пропускания нужно снизить температуры T0 и TА до абсолютного нуля, когда теплообмен и наличие свободных электронов исключены. А это противоречит третьему началу термодинамики, утверждающему, что абсолютный нуль температуры недостижим. Ведь даже реликтовое излучение Вселенной, которому столько же лет, сколько и ей, не остыло ниже -270°C. Наряду с шумами на систему воздействуют внутрисистемные помехи, обусловленные внутренними второстепенными информационными процессами, мешающими основному (на данный момент) информационному процессу. Внутрисистемные (в указанном смысле) помехи свойственны любой сложной системе, элементы которой являются потенциальными источниками и потребителями информации внутри системы. Например, человек как сложная система постоянно подвержен внутрисистемным помехам на уровне тканей и органов, информационно взаимодействующих друг с другом помимо воли хозяина и даже во сне. Мозг как сложная система постоянно «шумит», мешая восприятию информации.

Принцип неопределенности сигнала. Помимо объективного ограни чения, налагаемого помехами на качество связи между передатчиком и приемником, канал связи имеет и другое фундаментальное ограничение – конечность пространственно-временных параметров передатчика и при емника. Рассмотрим влияние этого ограничения. В физике и ее технических приложениях известны т.н. соотношения неопределенности, природа которых и заключается в пространственно временной конечности физических объектов. Так, соотношение неопределенностей Гейзенберга в квантовой физике утверждает, что нельзя одновременно точно измерить положение и импульс (скорость) элементарной частицы. Аналогичное соотношение неопределенностей в радиолокации не позволяет одновременно точно измерять дальность до цели и ее скорость [142]. Вообще в системах эхо-локации (радары, сонары, летучие мыши, дельфины и др.) абсолютно точное измерение координат (дальности, азимута и угла места) потребовало бы передатчиков с бесконечной мощностью, антенн с бесконечно большой апертурой, абсолютно бесшумных приемников с бесконечно широкой полосой пропускания. Некоторые из этих гипотетических устройств не обязательны при совместном использовании, но даже одного из них достаточно, чтобы повергнуть конструкторов в мистический ужас. Рассмотрим передачу сообщения через канал связи. Предположим, что оно конечно во времени. Это согласуется с практикой. У любого конечного процесса есть начало и конец в виде некоторых скачков из «небытия в бытие» (начало) или наоборот - из «бытия в небытие» (конец). В моменты скачков крутизна процесса бесконечна. При этом длительность скачка, естественно, равна нулю. Значит, частотный спектр этого процесса включает бесконечную спектральную составляющую (частота обратна длительности), и, следовательно, ширина спектра конечного во времени процесса бесконечна, что нереально. Если ограничить ширину спектра сигнала некоторой конечной максимальной частотой, свойственной резонансной системе генератора передатчика, то сигнал, строго говоря, не имеет начального и конечного скачков и поэтому бесконечен во времени, что тоже нереально.

Иными словами, в природе не существует процессов, имеющих одновременно конечные длительность и спектр, а следовательно, нет и таких сигналов в каналах связи. Но поскольку и длительность, и спектр сиг налов реально ограничены, конечны в силу пространственно-временной конечности параметров каналов связи, точное воспроизведение конечных сообщений невозможно любыми сигналами в любом канале связи.

Примем это положение, вытекающее из известной теоремы Котельникова-Шеннона, в качестве принципа неопределенности сигнала и смиримся с тем, что даже в идеальном – без помех – канале связи переносимые сигналами закодированные сообщения искажены по сравнению с теми же сообщениями на входе передатчика. Не меньшие искажения претерпевает сигнал и в приемнике, ибо вероятность абсолютно точного совпадения амплитудно-фазо-частотных характеристик передатчика и приемника или (хотя бы неухудшение этих характеристик в приемнике) как залог безошибочного приема сигналов в идеальном канале связи близка к нулю, а формы переданного и принятого сигналов никогда не совпадают. Таким образом, конечные по длительности сообщения искажаются согласно принципу неопределенности сигнала дважды – сначала в передатчике, затем в приемнике. Представляется важным для философского осмысления сопоставить, на первый взгляд, несопоставимое - принцип неопределенности сигнала и логику связи. Если сигнал по длительности и спектру не противоречит сво ей реализуемости, он не полон в одном из смыслов (спектральном или временном) или в обоих сразу. Если же сигнал полон в указанных смыслах, он противоречив в своей реальности, ибо он не может быть одновременно (во времени и по спектру) и даже порознь (во времени или по спектру) реально бесконечным. Подобная аналогия наводит на размышление, что известные физические соотношения неопределенности, проистекающие из эмпирических реалий конечного пространства-времени и обобщаемые на общенаучном языке математики теоремой Геделя о неполноте арифметической логики, приоткрывают завесу над латентной квазибесконечной «логикой» Универсума, данной нам лишь частично в своей конечной (дискретной) неполноте и кажущейся противоречивости. Из изложенного также следует, что природа «логики» Универсума, предположительно, информационна и континуальна (непрерывна).

Принцип порога.В традиционных материально-энергетических кана лах связи в дополнение к объективным спектральным искажениям сигналов добавляются искажения и потери сигналов, обусловленные конечным отношением «сигнал/шум» на входе приемника. Дело в том, что обнаружение сигнала на фоне шумов (детектирование) возможно, если сигнал превысил порог обнаружения (44), характер ный для приемников любой природы – электрических, электромагнитных, химических, оптических, вибрационных, психических, социальных, цифровых, аналоговых и т.п. Часть сигнала или даже весь сигнал могут оказаться ниже порога и, соответственно, потеряться для приемника. Информация, переносимая этим сигналом, будет искажена или утеряна для потребителя. Пороговый эффект объективно обусловлен маскированием слабых (субпороговых) сигналов шумами, внешними и внутрисистемными помехами. Для обнаружения субпороговых (подпороговых) сигналов пришлось бы повысить чувствительность приемника, уменьшая порог обнаружения, и, следовательно, пустить в оконечное устройство шумы и другие помехи. А это чревато ложными срабатываниями оконечных устройств от шумов (помех). Последнее не менее опасно, чем пропуск сигналов. Поэтому повышать чувствительность приемника целесообразно до определенного предела, зависящего от допустимой вероятности ложных срабатываний при заданном шуме (уровне помех). Этот предел и есть порог обнаружения сигнала.

Желая избежать ложных сигналов от внутреннего шума, внутрисистемных и внешних помех, потребитель загрубляет вход приемника (ухудшает его чувствительность) и тем самым вместе с шумом и помехами теряет субпороговую информацию. В результате у сложных систем со сравнительно большим энергоинформационным внутренним шумом (высокоинтеллектуальные системы) относительная доля субпороговой информации оказывается больше, чем у простых малошумящих (неинтеллектуальных) систем, и сложные системы теряют больше субпороговой информации, чем простые. Такова плата за сложность, за интеллект, приводящая к нечувствительности сложных систем к информации «тонких миров» - той информации, которая, возможно, доступна «братьям нашим меньшим» и лишь редким представителям человечества. В теории и технике связи и локации хорошо известны методы оптимальной фильтрации сигналов, позволяющие выделить субпороговые сигналы из шумов [142]. Не такой ли способностью обладают гении, провидцы, телепаты, йоги и т.п., воспринимая субпороговые сигналы реальных информационных полей и метафизического информационного поля Универсума? Механизмы подобного восприятия субпороговой информации до сих пор не познаны, часто игнорируются научным сообществом даже вопреки очевидным фактам. Может, специалистам стоит поискать ответ в технических системах, где эти механизмы давно реализованы? Ведь проблема потерь субпороговой информации, возможно, - одна из важных для развития человеческой цивилизации. Поэтому принцип оптимальной фильтрации выделен ниже в самостоятельный принцип связи.

Более общим по сравнению с порогом обнаружения является понятие порога различения сигналов. Ведь обнаружение, в сущности, есть не что иное как различение сигнала и шума (помехи). Порог различения в информационном процессе есть проявление весьма широкого спектра философских отношений: различия и тождества, существенного и несущественного, определенного и неопределенного, дискретного и непрерывного, ко нечного и бесконечного. Если бы не существовало порогов различения (обнаружения), не существовало бы и информации, ибо ее нельзя было бы отличить от шума, помех и дезинформации, один сигнал отличить от другого. Связь как передача разнообразия была бы невозможна, т.к. в приемнике отсутствовали бы пороговые критерии отбора сигналов. Важно отметить, что эти пороги устанавливает потребитель информации, ибо только он решает, какая информация имеет для него значение. Насколько философски широки и значимы понятия кода и сигнала, настолько же значимо и понятие порога. Так, одна из важнейших процедур развития систем - процедура отбора - невозможна без ограничений разнообразия, накладываемых критериями отбора, которые физически ре ализуются через пороги обнаружения и различения сигналов, а онтологически – через закон необходимого разнообразия и диалектический закон количественно-качественных переходов.

Именно пороги защищают систему, ограничивая разнообразие ее входных воздействий до необходимого разнообразия согласно закону (20). Итак, принцип порога состоит в объективном существовании порогов различения сигналов и помех (обнаружение), одних сигналов от других (распознавание). Принцип порога позволяет отделить значимую информацию от незначимой, распознать информационный элемент в ряду других информационных элементов.

Отметим также, что сообщение, переносимое сигналом, представляет его (сигнала) переменную компоненту в отличие от самого носителя – постоянной компоненты сигнала. Информативно разнообразие. Применительно к сигналу это значит, что информативны его переменные асимметричные составляющие, ибо передаваемое разнообразие заключено именно в них. Постоянная, симметричная составляющая, не обладая разнообразием, соответственно, неинформативна и как незначимая для потребителя отсекается в приемнике при детектировании информативной переменной составляющей, значимой для потребителя.

. О каком разнообразии, о какой информации можно рассуждать, наблюдая на экране осциллографа прямую линию развертки или уставясь в чистый лист бумаги? Разве что зафиксировать наличие самого носителя, разнообразие которого равно двум состояниям «есть-нет». Таким же разнообразием состояний обладает рубильник, монета. Этого явно недостаточно, чтобы считать рубильник и монету информативными развитыми системами, впрочем, как и носители сигналов. Таким образом, коммуникация как установление понимания морфологически есть передача разнообразия. Принцип усиления.Известно, что в N-мерном пространстве сила взаи модействия объектов обратно пропорциональна (N-1)-ой степени от расстояния между ними [50]. В нашем трехмерном пространстве этот закон сводится к закону обратных квадратов. Ему подчиняются и сигналы в информационных каналах связи, использующих открытый эфир в пределах нашей Вселенной. Кроме того, любой сигнал мультипликативно ослабляется средой распространения, «вязнет» в ней в степени, зависящей от природы среды. Наконец, сигнал аддитивно маскируется или разрушается помехами (согласно принципу объективности помех). Все эти факторы приводят к объективной необходимости усиления переданных сигналов на приемной стороне канала связи до уровня, превышающего порог различения сигналов (порог срабатывания декодера) (рис. 23). Приемник-усилитель не работает без источника питания (энергии). Коэффициент усиления сигнала конечен и определяется тепловым эквивалентом полученной энергии за вычетом тепла, бесполезно рассеянного на элементах схемы (рис. 24). Мы рассмотрели вкратце информационный аспект усиления, когда выходом усилителя является сигнал, несущий информацию. В общем случае выходом усилителя может быть любой субстрат – информация, энергия, вещество (масса), но рабочая характеристика такого усилителя всегда соответствует логистической тенденции, приведенной на рис. 24.

С и г нал Передатчик а) к информационному принципу усиления Источник питания Приемник (усилитель) СИГНАЛ к декодеру П р оцес Передатчик с ПРОЦЕСС Усилитель (информация) б) к общему принципу усиления Источник питания Рис. 23. К принципу усиления Выход 1 - зона нечувствительности 2 - рабочая зона 3 - зона насыщения 1 2 3 Вход Коэффициент усиления Рис.24. Рабочая характеристика усилителя Вход Феномен усиления в приведенном общем смысле свойствен открытым системам самой различной природы, например, химической (катализ, ферментация), биологической (размножение, рост), психологической (развитие интеллекта), технической (связь, управление) и др. В каждом из этих примеров используется свой источник питания - среда обитания, преобразователи энергии, вещества, информации. Материально-энергетические системы черпают первичную энергию из первичных форм теплового движения, которые, в свою очередь, подчиняются известным началам термо динамики;

и, как внешне ни далеки друг от друга эти системы, их усилительная (эволюционная) способность в итоге определяется конечной работой теплообмена при соблюдении законов сохранения энергии и вещества. Информационные системы черпают первичную информацию из первичных форм информационного поля, которые подчиняются изложенным выше началам информационного подхода. Усилительная способность этих систем (коэффициент усиления информации) определяется конечной внешней информацией, полученной ими в результате информационного взаимодействия со средой за вычетом информации, бесполезно рассеянной на элементах системы, и при соблюдении закона сохранения информации.

Аналогично можно интерпретировать феноменологические модели усиления в энергоинформационных и материально-энерго-информационных системах. Усиление сигнала не означает только увеличение его амплитуды – это частный физикалистский аспект усиления сигнала, распространяющегося в пространстве-времени. Синергетический аспект усиления состоит в усилении разнообразия(самоорганизация), усилении интеллекта (самообуче ние) [170]. При этом технологически усиление может состоять не только в умощнении, но и в выделении (фильтрации) латентного сигнала из шумов, латентной информации из информационного шума и дезинформации, существенного из несущественного, значимого из незначимого и вредного и т.п. В этом смысле мы имеем дело с философским обобщением понятия усиления. Иными словами, сигнал – это любой процесс, и он может быть усилен до пределов, потенциально ограниченных мощностью источника питания приемника (рис. 23б). В этом и состоит общий принцип усиления.

Если усиливаются разнообразие (сложность) и(или) интеллект системы, то потенциальный предел усиления определяется информационной мощностью (информативностью) ее источника питания – а именно, разнообрази ем и интеллектом среды. В этом состоит частный информационный принцип усиления.

Другая формулировка общего принципа усиления: малое количество энергии, несущее информацию, управляет большими массами и большими количествами энергии. Здесь важно, что энергия, инициирующая управле ние, несет информацию - иначе управление несостоятельно. Информация – вот первоисточник любого управления. В теории управления этот принцип называют кибернетическим принципом управления.

Принцип оптимальной фильтрации. Из принципа порога следует, что субпороговый сигнал не обнаруживается. Однако обращено внимание на механизм оптимальной фильтрации, реализованный технически и, возможно, биологически и психически. Согласимся, что каждому из нас приходится сталкиваться с феноменами вспоминания давно «похороненных» следов памяти, вдохновенного творчества, когда неизвестными путями к нам приходит информация, нужная для решения задачи и обычно недоступная, спрятанная в информационном шуме. Полагаем, что за этими феноменами в определенной мере скрываются биологические и психические механизмы оптимальной фильтрации, обнаруживающие скрытый шумами сигнал. Возможно, самонастройка медиумов на взаимодействие с информационным полем означает именно сосредоточенную внутреннюю настройку психического оптимального фильтра. Эффект оптимальной фильтрации существен для понимания нестандартных информационных процессов, связанных с восприятием латентной информации. На рис. 25а приведен пример оптимальной фильтрации сигнала за счет синфазирования трех частотных составляющих сигнала в момент времени t 0. Здесь же показано, что при малейшем сдвиге фаз относительно момента t 0 пик сигнала рассыпается и может скрыться под порогом (рис. 25б). Заметим, что при оптимальной фильтрации происходит сжатие сигналов и, следовательно, улучшение их разрешения во времени.

u1 u u3 порог обнаружения u1 + u 2 + u t t t t а) б) Рис. 25. Оптимальная фильтрация (вариант) Техническая реализация оптимальных фильтров достаточно разнообразна [142]. Для нас важно их общее свойство – подобие (т.е. совпадение с точностью до постоянных коэффициентов) информационных характеристик передаваемого сигнала и приемника (оптимального фильтра) этого сигнала. Такими взаимосвязанными характеристиками являются амплитудно-фазо-частотный спектр сигнала и соответствующая рабочая характеристика приемника. Очевидно, что оптимальная фильтрация в приведенном смысле возможна при условии априорного знания информационных характеристик ожидаемого сигнала. На основании изложенного сформулируем обобщенный принцип оптимальной фильтрации в следующем виде: для эффективного обнаружения латентного сигнала в маскирующем шуме информационные параметры приемника и сигнала должны быть подобны.

Этот принцип, доведенный до схемотехнических решений, материализует философскую суть эффективного познания объекта: субъект должен уподобиться объекту, чтобы эффективно познать последний. Сосре доточение мысли субъекта на объекте познания, феноменологическая интенциональность сознания, по нашему мнению, суть процессы именно такого уподобления, самонастройки интеллектуального приемника субъекта на режим оптимальной фильтрации сигналов познания, передаваемых объектом. Важно, что для адекватного уподобления объекту познания субъект должен априори, если не знать, то, по крайней мере, представлять латентные познаваемые свойства объекта. Следовательно, для эффективного познания субъект априори должен иметь теорию объекта, чтобы настроить свои средства познания (чувства, приборы, мозг) на режим оптимальной фильтрации сигналов, несущих внешнюю информацию об объекте. Отсюда возникает неожиданная точка соприкосновения с априоризмом И. Канта, согласно которому в каждом акте познания познающий субъект заранее обладает некими существовавшими до него формами, категориями, которые придают смысл познанию объекта и обеспечивают познание его смысла. В этом априоризм Канта «находит взаимопонимание», во-первых, с концепцией информационного поля как хранителя информации, во-вторых, с принципом оптимальной фильтрации. Воистину мудрость Канта – на все времена! Принцип оптимальной фильтрации – не сциентистский домысел, а прагматическое правило поведения интеллектуальных систем: «решая задачу, знай ответ» (математики), «нужная информация – тому, кто ее ожидает» (ученые, экстрасенсы), «каждый видит (слышит) то, что хочет видеть (слышать)» (социум в целом). Принцип оптимальной фильтрации согласуется с законом сохранения информации и подтверждает его следствия [см. (36) и последний вывод к главе 2] с гносеологических и праксеологических позиций. Остается вопрос о взаимопревращениях символов и знаков (кодов) непосредственно на выходе источника и на входе потребителя информации. Это знакомые нам проблемы физических оснований кодового преобразования идеального в материальное, трансцендентального в эмпирическое, репликации внутренней информации во внешнюю, подробно рассмотренные в разделе 2.1.2.

Из изложенного следует, что коды–знаки суть продукты материального проявления информационного поля (носителя символов) в физических полях, если по самому характеру информационного процесса внешняя информация должна быть явленной, а ее носитель, соответственно, энергетическим. Тогда декодирование кодов в символы должно быть обратным процессом, т.е. виртуализацией физических полей в информационное поле. При неэнергетическом характере информационного процесса такие взаимопревращения излишни, кодирование превращается в неявленную символьную интерпретацию объекта в том же информационном поле. Данная гипотеза представляет интерес для дальнейшего философского анализа. Изложенные принципы коммуникации работают не порознь, а в комплексе. Объективный рост уровня естественных и искусственных помех по мере интенсификации информационного метаболизма в развивающейся системе имплицирует рост порогов отбора («проходной балл») ценной информации, в результате чего ее все более значительная часть оказывается субпороговой, нераспознанной, рассеянной, не выявляемой усилением и с трудом поддающейся оптимальной фильтрации. Данная проблема должна быть рассмотрена в аспекте безопасности информации. Здесь требуется четко различать несколько подходов: а) за щита информации от рассеяния и искажения помехами;

б) защита потребителя от дезинформации и информационного шума;

в) защита информации от несанкционированного доступа, копирования и имитации. Каждый из данных подходов требует самостоятельного глубокого исследования во всех аспектах существования информации, включая социальный. Наша рефлексия ограничивается первым подходом в онтологическом аспекте. Налицо энтропийная тенденция, диссипативная по отношению к внешней информации, но, как ни парадоксально, благоприятная для внутренней информации в аспекте поддержания эволюционного потенциала развивающихся систем. В данном смысле «умеренная» диссипация внеш ней информации есть стимул ее потенциального генерирования, а накопление без рассеяния опасно для развития в целом, как опасно отсутствие информационного дефицита в «заорганизованной» системе (см. раздел 2.1.2). Нуль-энтропия системы означает конец ее развития, ее свободы. Не только художник, но и любая развивающаяся («творческая») система должна быть свободной. Возникает проблема меры «умеренности» рассеяния информации. Данную проблему интерпретируем как проблему гармонии между генерированием и рассеянием информации.

Гармония между генерированием и рассеянием информации может пониматься в контексте либо гармоничного лечения, целеполагающего позитивный эффект при допустимом уровне неизбежных негативных «побочных» эффектов, либо эстетической гармонии золотого сечения, либо принятия оптимального решения (по Байесу, Парето, Нейману-Пирсону и др.). Выбор методологии защиты информации зависит от целей обороны.

Проблема безопасности информации в рассмотренном аспекте приобретает философский смысл.

3.2.Информационные механизмы реализации аксиологических установок познания и управления Для связи как процесса (коммуникации) важно количество передаваемой информации, для связи как результата (понимания) важно ее качество, т.е. ценность. Дело в том, что прирост количества информации в развивающейся системе явно недостаточен, чтобы судить, куда пойдет развитие. Одно и то же количество информации, как отмечалось выше, может быть для системы полезным (информация, прогресс), вредным (дезинформация, регресс) или бесполезным (шум, стагнация). Например, воспринятая растением информация о весеннем тепле может оказаться полезной для его развития, вызвав сокодвижение и выброс почек, но может и дезинформировать, т.к. от внезапных заморозков погибнут почки и, воз можно, все растение. Однако количественно информация и дезинформация были одинаковы. Таким образом, для полной характеристики развития требуется ввести функцию полезности (ценности) информации, которая определяет эффек тивность развития системы. Именно поэтому следует отличать абстрактную информацию (количество информации) от конкретной информации (смысла или просто информации). Количество информации важно для каналов связи с их ограниченной пропускной способностью и безразличием к смыслу передаваемых сообщений, будь то информация, дезинформация или шум (бессмыслица). В свою очередь, смысл (информация) как ценностная категория важен для управления. включает она освещение в кабине летчика, Двухпозиционная кнопка катапульту или открывает «вкл-выкл» несет один бит внешней информации вне зависимости от того, бомболюк. Метеосводка о погоде в Твери имеет разную ценность для тверитян и парижан, вызывая с их стороны и разные реакции (управления). Основополагающие исследования развития систем с учетом функции полезности информации провел М. Эйген, показавший, что прогрессивное развитие систем возможно лишь за счет отбора и накопления ими «информации, ассоциированной с высокой «селективной ценностью» [168, с.192]. Что такое ценность информации, и как ее измерить, чтобы судить, будет она способствовать развитию системы или нет? Очевидно, что для системы ценность информации связана с целью ее развития, а цели могут быть разные. Накануне экзаменационной сессии ценность информации о причудах профессора гораздо выше, чем в начале семестра, а о своем профессоре несравнимо выше, чем о чужом. Изменение цели изменяет и ценность информации, но не наоборот, т.к. ценность информации аксиологически вторична по отношению к цели, преследуемой потребителем информации.

Можно ли сравнивать ценность информации по абсолютной шкале измерений или это относительная категория? Скорей всего, второе, ибо практика свидетельствует: ни одна информация за всю историю Вселенной, жизни и разума не обрела статуса абсолютно ценной. Наоборот, очередной виток развития ставил новые цели и изменял критерии ценности, а то, что казалось прежде абсолютно ценным на все времена, приобретало статус относительной ценности или вообще низвергалось на свалку истории.. Одна и та же информация, как показано выше, может обладать разной ценностью для разных субъектов - потребителей информации - или для одного и того же субъекта в разное время. Так что если мы научимся измерять ценность информации, то шкала измерений представляется нам относительной. Правда, в [53] предлагается ввести абсолютную шкалу ценности: ценнее считать ту информацию, которая генерирует новую информацию с большей вероятностью. Но как оценить эту вероятность?! Если взять некоторую систему, обладающую внутренней упорядоченностью (информационным кодом), то информация об этом коде для внешнего потребителя может обладать одной ценностью, а для самой системы совершенно другой, т.к. цели потребителя информации и системы, как правило, не совпадают. В таблице 4 с использованием [53] приведены некоторые виды информации в порядке возрастания их относительной ценности для развивающейся системы согласно ее целям. Таблица 4. Относительная ценность информации и цели развития Цель развития Самовосстановление Стимулирование самовосстановления Самовоспроизведение Улучшенное самовоспроизведение Стимулирование улучшенного самовоспроизведения Вид информации Автогенная Автокаталитическая Репликационная Эволюционная Эволюционнокаталитическая Ценность информации Ц1 Ц2 > Ц1 Ц3 > Ц2 Ц4 > Ц3 Ц5 > Ц Шкалу ценностей в этой таблице тоже не следует абсолютизировать, ибо она отражает точку зрения некоторого стороннего наблюдателя и не согласована с «мнением» системы. Эта несогласованность шкал информационной ценности часто приводит к диссенсусу систем, в результате чего они ведут себя неадекватно придуманным инструкциям, наши теории периодически конфликтуют с практикой, государства воюют, фундаменталисты всех ориентаций не идут на мировую, ткани разных организмов несовместимы, а студент никак не возьмет в толк, чего от него хочет профессор. В [113,148] ценность информации в философском смысле определяется как прагматическое отношение между информацией, субъектом (ее потребителем или источником) и целью субъекта. Заменим понятие субъекта на понятие системы и представим ее отношение с целью и информацией в виде треугольника (рис. 26).

Информация ЦЕННОСТЬ ИНФОРМАЦИИ Система Цель Рис. 26. К определению понятия ценности информации Система в каждый момент своего существования ставит перед собой цели, реализовать которые она может только через информацию, обла дающую для этого необходимыми свойствами и являющуюся импульсом целенаправленной деятельности системы. И чем больше необходимых свойств, тем ценней информация. С позиций теории управления система как регулятор имеет два информационных входа (прямой и обратный), позволяющих ей управлять выходом – реализацией своей цели. Отсюда ценность информации есть непосредственный аргумент функции полезности информации, определяющий эффективность системы. Именно в этом смысле ценность информации является прагматическим отношением и ни одну из вершин треугольника на рис. 26 нельзя удалить, чтобы не сделать беспредметным само понятие ценности информации, не разрушить эту ценность. Элиминация цели в актах постижения смысла текста, когда вроде бы объективное содержание цели совпадает с информацией [148, с. 128], вызывает возражение. Информация ценна лишь постольку, поскольку она способствует достижению цели. Если цель - семантический аспект текста, а его синтаксис и морфология не способствуют достижению этой цели, то прагматическое отношение между «осиротевшими» без нее системой и информацией просто разрушается – ценность информации недоступна. Морфология (разнообразие), синтаксис (значение) и семантика (смысл) – три неразрывных стороны информации, участвующие в любых прагматических отношениях систем. При этом, конечно, смысл и есть ценностная компонента информации. Известные количественные меры ценности информации – прирост вероятности достижения цели (А.А. Харкевич [155]), значение штрафа (потерь) при принятии решения (Р.Л. Стратонович [135]), количество информации, заключенной в правильном ответе (М.М. Бонгард [17]) и др. исходят из того, что ценность измеряется степенью достижения цели. «Близость реализованного к поставленной цели - вот самый общий критерий ценности» [148, с.126]. Но эти меры не канонизированы в теории информации и философии, и, как нам кажется, причина – в их утилитарности. Ведь цели от системы к системе разные, соответственно, разнятся и критерии ценности информации. Поэтому представляется важным обратиться к онтологии понятия информации в попытке поиска обобщенной, философски значимой меры ценности информации. Выше отмечалось, что количество информации, передаваемой по каналу связи, инвариантно к ее смыслу и ценности, и поэтому оно не может характеризовать ценность информации. Пожалуй, с позиций теории управления это слишком сильно сказано. Действительно, если в результате получения некоторого количества информации о системе на ту же ве личину снизилась неопределенность ее состояния, значит, мы получили действительно ценную информацию, а не дезинформацию (которая эту неопределенность, наоборот, увеличила бы) или шум (который оставил бы априорную неопределенность неизменной). Таким образом, количество информации как мера снятой неопределенности, мера познания вполне может претендовать на роль апостериорной количественной меры ценности информации1. Такой подход проистекает из классической (шенно новской) теории информации: «понятие неценной информации чуждо шенноновской теории - сведения, не уменьшающие неопределенности, информацией просто не являются» [147, с.54]. Но в теории ШеннонаВинера отсутствуют понятия цели информационного процесса и его безопасности, из которых явно следовало бы, что информация всегда селек тируется от дезинформации и шума. Соответственно, метрика ценности, связанная с количеством информации, не обеспечивает такой селекции. В этом-то и проблема данной метрики. Проблема также в том, что такая мера ценности слишком инерционна, ибо только по прошествии некоторого времени можно определить, что мы передали или получили - информацию, дезинформацию или шум. Иногда эта инерционность может оказаться фатальной для системы - механизм поиска и отбора начинает работать, не дожидаясь решения о ценности полученной информации. Например, так случается с общественнополитическими системами в периоды бурь и потрясений. Стоит ли потом удивляться или кусать себе локти, что сделанный выбор оказался ложным? В целом проблема сводится к оценке априорной ценности информации. Итак, эффективность развития системы зависит от ее умения безошибочно отобрать среди своих состояний (пусть даже упорядоченных) те, которые полезны для цели развития, и закрепить их в потомстве. Так, если цель – самовосстановление, выживание гомеостатической системы во враждебной среде, то система должна поддерживать свои жизненно важ Данная метрика релевантна и в социально-экономическом аспекте [71, с.6].

ные переменные в допустимых границах вне зависимости от воздействий среды. Иными словами, система своими управлениями должна защитить эти переменные от информации среды. Задача внутрисистемного регулятора и состоит в блокировании этой информации. Если мы заболели, значит наш «регулятор» не справился с таким блокированием. В этом плане отбор полезных (ценных) состояний равноценен обеспечению устойчивости выходов (существенных переменных) системы и подчиняется закону необходимого разнообразия. Если цель - улучшенное самовоспроизведение, при отборе оцениваются состояния системы на соответствие изменившейся среде, а еще лучше - прогнозу среды. При этом неудачные состояния вместе с их консервативными носителями отбраковываются, а полезные состояния передаются по наследству. Так происходит, например, с мутирующими генными наборами флоры и фауны, новыми технологиями, машинами и товарами, наукой и искусством, социально-экономическими укладами. Сама технология отбора носит статистический (массовый), а не индивидуальный характер и состоит в поиске (обнаружении и распознавании) полезных состояний, включении их в тезаурус системы. В свою очередь, поиск носит случайный характер из-за вероятностной природы массовых явлений и связанной с этим хронической априорной неопределенности состояний сложной системы. Поиск и отбор в совокупности образуют механизм селекции. Известны несколько методов случайного поиска [118] - метод проб и ошибок, метод Монте-Карло, метод рандомизации, гомеостат Эшби, набросовые, адаптивные, блуждающие, бионические алгоритмы поиска и др. Какой или какие из них реализуются в конкретной системе, для нас не столь важно. Важно, что результатом поиска являются удачные варианты, отбираемые на основе информации об устойчивых формах и накопленного опыта [125, с.117]. Следовательно, поиску и отбору цен ных для системы состояний, имеющих будущее, предшествует генери рование информации системой;

а иначе откуда взяться «информации об устойчивых формах» или «накопленному опыту»? В [50] автором исследованы некоторые популярные процедуры поиска (метод проб и ошибок, линейный и двоичный методы). Методу проб и ошибок свойственны два предположения: нероковой характер ошибок и отсутствие априорных соображений о том, в каком направлении делать пробы. Поэтому случайность для этого метода является единственной разумной мерой: она почти ничего не стоит и приведет в конце концов к решению. Но для этого, очевидно, поиск должен быть достаточно длительным. Быстродействие поиска важно в любой информационной технологии, будь то автоматизированная система управления (АСУ) технологическими процессами, системы управления базами данных (СУБД) и базами знаний, диагностические системы и др. Тем более оно важно в алгоритмах развития систем. Ведь речь идет об их судьбе, здесь промедление смерти подобно в буквальном смысле слова. Поэтому вряд ли метод проб и ошибок в чистом виде реализуется в алгоритмах развития. Обратимся к решению проблемы быстродействия поиска в современных СУБД, файловых мониторах. В них принято перед поиском осуществлять лексикографическую, календарную или размерную (числовую) сортировку (упорядочивание) данных (файлов). Идея упорядочивания не но ва, она лежит в основе любого быстрого поиска. Документы в офисах, книги в библиотеках, солдаты в строю, деньги в кассах, товары на складах, списки избирателей, домашние вещи, знания в голове - всюду надо «наводить порядок» для быстрого поиска. А что такое упорядочивание, как не генерирование информации? Ведь согласно одному из распространенных определений информация есть мера упорядоченности систем. Это подтверждает необходимость информации для быстрого поиска. Из всех рассмотренных методов наиболее быстрым (по числу шагов поиска) оказывается двоичный поиск. Для алгоритма двоичного поиска характерны а) жесткая зависимость между шагами по интервалу и месту поиска, б) равновероятность выбора на каждом шаге в пределах текущего интервала поиска. В свою очередь, зависимость шагов обусловлена упорядоченностью состояний системы, т.е. ее информативностью. Что будет, если устранить всякую зависимость между шагами поиска? Это имеет место, например, при случайном поиске с возвратом проб. Поиск становится бесконечным (зацикленным), ибо неопределенность на каждом шаге не уменьшается, как при двоичном поиске. Словом, независимость шагов поиска делает его бессмысленным. Если она обусловлена игнорированием упорядоченности состояний системы, это свидетельствует о неинтеллектуальности внешнего по отношению к системе механизма отбора. Если независимость шагов поиска вынужденная (из-за отсутствия упорядоченности), это свидетельствует о внутренней неинтеллектуальности системы. Оба варианта потенциально гибельны для системы в смысле достижения ее целей. Таким образом, для реализации конечного поиска нужна упорядоченность состояний системы - внутренняя или внешняя, вносимая са мим алгоритмом поиска, например, за счет невозврата проб при линейном поиске. Результаты исследования [50] приводят к следующим выводам: селекция (поиск и отбор) сводится к целенаправленному ограничению разнообразия состояний системы по априорным или адаптавным критериям ценности с соответствующей генерацией селективной информации;

селективная информация при любом конечном (результативном) поиске одинакова и равна log n, где n – число состояний, из которых производится отбор;

метод поиска определяет лишь его длительность (рис. 27);

величина log n имеет двойственную природу - это и количество селективной информации, и длина программы селекции (количество «вопросов, задаваемых системе» для поиска и отбора ее состояний по заданному критерию ценности) -, что согласуется с алгоритмической концепцией понятия количества информации по А.Н. Колмогорову [68, с.с.218-222];

продолжительность (длина) программы селекции находится в прямой зависимости от информативности системы и непосредственно характеризует эту информативность.

Накопленная информация (бит) 4 n=16 3 Двоичный 2 1 Случайный 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Линейный Шаги поиска Рис. 27. Информационная динамика методов поиска (вариант) Конечный поиск и отбор ликвидируют априорную неопределенность (энтропию) в отношении состояний системы, трансформируя ее в ценную поисковую информацию. Чем система организованней, тем меньше ее энтропия, тем меньше усилий (шагов поиска) надо предпринять для трансформации ее в селективную информацию. Следовательно, чем больше информации система сгенерирует на этапе самоорганизации, тем эффективней (быстрей) механизм поиска и отбора трансформирует оставшуюся системную энтропию в полезную селективную информацию (найти иголку в стоге сена проблематичней, чем в игольнице). С другой стороны, эффективный поиск должен заканчиваться однозначным (определенным) результатом с нулевой неопределенностью. Следовательно, начальная (максимальная) энтропия поиска не может остаться таковой до конца – это все равно, что бессистемно искать выход из леса. Вместо результата - бесконечный процесс его поиска. Поэтому энтропия шагов эффективного поиска должна быть меньше максимальной (исходной), а после последнего шага - нулевой: log 1 = 0.

На основании изложенного можно предположить, что из многочисленных методов поиска ценной информации механизмы естественного и искусственного отбора должны были бы использовать поиск, основанный на максимально возможной зависимости шагов и равновероятности исходов каждого шага поиска. Зависимость шагов поиска возможна толь ко за счет ненулевой памяти, использующей информацию предыдущих шагов о накопленных полезных состояниях для отбора на текущем шаге. При нулевой памяти (бесконечный случайный поиск) новые состояния элементов системы отбираются независимо от того, какими состояниями обладают другие элементы. В результате нет накопления, концентрации ценных состояний;

такая система не развивается. Селективная информация, используемая при отборе, по-видимому, более ценна для развития системы, чем информация упорядочивания (организации), которая, в свою очередь, более ценна по сравнению с информацией как мерой отраженного разнообразия состояний системы. Но самой ценной принято считать информацию в форме знания, приобретенного и внесенного в тезаурус системы в результате поиска и отбора. У энергии тоже есть градация по ценности [1,20]: наименее ценной считается тепловая энергия, более ценной - химическая, еще более ценными механическая и электрическая формы энергии. Таким образом, многоэтапный алгоритм генерирования информации в системе, развивающейся в направлении некоторой цели, сводится к увеличению ценности информации от этапа к этапу, т.е. к увеличению количества ценной информации в системе. При этом информация, как и энергия, не создается из ничего, она только изменяет свою форму (код) с каждым переходом от менее ценного уровня к более ценному (рис. 28), от полного незнания к знанию. Многоэтапное перекодирование информации позволяет системе в конце концов реализовать цели своего развития. Любая задача развития (познание, конструирование, размножение, борьба за существование и т.д.), в сущности, сводится к поиску и отбору.

Открытие, изобретение как формы развития науки и техники включают в себя, наряду с многими творческими этапами, этап подготовки патентной заявки, т.е. упорядочивание всех данных о новом явлении, устройстве, веществе, способе (объекте заявки), об известных аналогах и, наконец, о самом близком аналоге - прототипе. Сгенерированная на этом этапе инЦенность информации Познание Поиск и (снятая Ограничение отбор неопредеОтраженное разнообразия (ценная ленность) Разнообразие разнообразие (упорядоченность) информация) (внутренняя (внешняя значение смысл знание информация) информация) Рис. 28. Ценностная шкала информации формация используется для поиска и отбора отличительных признаков заявляемого объекта - наиболее важной, ценной информации, свидетельствующей о его новизне и полезности. Словом, информационный код характеристик заявляемого объекта, аналогов и прототипа перекодируется в наиболее ценный код его отличительных признаков. Самоорганизация и обучение развивающейся системы суть не что иное, как последовательное генерирование все более ценных информационных кодов согласно рис. 28. Важное место в этой цепи преобразований занимает поисковая активность системы, потребность в поиске, которая является «… движущей силой саморазвития и самоусовершенствования каждого индивида, делая его активным соучастником прогресса всей популяции» [123, с.22]. Поисковая активность учащегося награждается эпитетами «пружина развития», «предпосылка здоровья», «механизм ускорения развития мозга» (чем мозг сложнее, тем выше темп его развития и совершенствования как функция поисковой активности) [123, с.с.18-26]. В [3] поисковая активность считается одним из важнейших факторов выживания систем за счет интенсификации обмена информацией с внешней средой для формирования активного знания как базиса сознания и основы творчества, без которого знание мертво, ибо неподвижно.

Выводы Рост разнообразия системы сопровождается генерированием информа ции, осуществляемым с помощью программы, принципы работы которой аналогичны компьютерным принципам хранимой программы и программного управления;

Выявлена энергетическая антиномия оптимального управления, которая преодолима а) при максимизации информативности управления на единицу ресурсных затрат (информационный принцип управления) и б) при асимптотическом снижении темпа роста ресурсных затрат системы до нуля по мере возрастания ее сложности и информативности (данный закон обоснован и назван автором как закон информационной экспансии);

Связь как процесс (коммуникация) направлена на установление понимания источника потребителем информации, связь как результат и есть это понимание;

вся технология связи подчинена данному императиву, поэтому философская проблема связи имеет герменевтический характер;

На генерируемую информацию постоянно и объективно воздействуют помехи с последующим рассеянием и обесцениванием информации, что в совокупности поддерживает потенциал развития систем;

абсолютная безопасность информации онтологически недостижима и не полагается ни одним информационным процессом. Вскрыты пороговые механизмы селекции (поиска и отбора) ценной информации, реализующие аксиологические установки познания и управления через целенаправленное ограничение упорядоченного разнообразия состояний системы с соответствующей генерацией селективной информации;

последняя зависит от внутренней информации системы, накопленной на момент селекции, и не зависит от метода селекции – метод определяет лишь ее длительность.

Глава 4. Эксплицитно-эвристический потенциал философской концепции информационного подхода Прежде чем апробировать разработанную в предыдущих главах концепцию, проанализируем ее на соответствие установкам, сделанным в конце раздела 1.1 и регламентирующим ее философский статус. По своему метафизическому характеру, всеобщности и инвариантности понятия информации и Универсума родственны и философичны. Соответственно, философичен и информационный подход, базирующийся на понятии информации и полагающий своим объектом Универсум. Успехи информатики, способствовавшие реальным достижениям информационного общества, не приземлили философскую концептуальность, синтетичность, дедуктивность, мировоззренческую значимость информационного подхода, а скорее, наоборот – лишний раз доказали их. В этих доказательствах важное место заняли феноменологические и герменевтические методы, обращенные к смыслам, нацеленные на сущности. Отсюда интенциональность информационного подхода. В философской концепции информационного подхода отсутствуют исходные предпосылки - аксиомы как данности Универсума. Есть только проблема – сам Универсум и информация как его (само)отражение. Предложенные в диссертации презумпция информационного монизма и философско-категориальный статус информации – результаты философской рефлексии, а не аксиоматические утверждения. Предложенная концепция и ее методический базис отвечают требованиям системности, т.е. внутренней организованности и взаимосвязанности элементов системы, ее целостности. Внутреннюю организованность (подчиненность закономерностям) и целостность (законченность, обособленность от «методической среды», уникальность) философской концепции информационного подхода придают понятия разнообразия, информации, информационного процесса, принципы и законы, методически взаимосвязанные через указанные понятия.

Если принять любую философскую концепцию за источник информации, то, как и любой источник, она информативна, если разнообразна, полиморфна. Концепция, базирующаяся на единственной возможности, неинформативна. Предложенная концепция богата разнообразием взаимодополняющих методик исследования, внутренне организованна, целостна и в известной мере самодостаточна – в этом ее системность. Информационному подходу и его философской концепции, как информатике и информационному обществу в целом, чужды догматизм, ортодоксальная стагнация, пока основной двигатель прогресса – молодежь. Пожалуй, поэтому нигде, как в информатике, от философской рефлексии и «сумасшедших» идей – всего один шаг до технологий. Философская концепция информационного подхода несет интеграционное начало, позволяя сблизить методологические позиции гуманитарного знания и точных наук, естествознания и теологии, достичь консенсуса между ними. Вывод: предложенная философская концепция информационного подхода соответствует признакам философичности и пригодна к апробации. 4.1. Информационная трактовка неполноты и противоречивости дискурсивного вывода В главе 1 мы пришли к выводу, что вербально-логический дискурс не может быть гарантом достоверного доказательства. Попытки отыскать такого гаранта в принципах верифицируемости и когерентности высказываний тоже безнадежны. Мы предположили, что причину этой проблемы следует усматривать в дискретной природе самого дискурса, неспособного из-за этой генетической дискретности доказательно обосновать значимость (истинность/ложность) высказываний, смысл которых по своей природе континуален. Релевантность данной презумпции подтверждается появлением наряду с двузначной четкой логикой (значения истина или ложь) «нечетких» логик, базирующихся на лингвистических переменных, значениями которых могут быть, например, истина, скорее истина, не знаю, скорее ложь, ложь и т.п. Однако и нечеткая логика, базирующаяся на конечном множестве значений лингвистических переменных, дискретна и потому, как и двузначная логика, может гарантировать лишь правдоподобность доказательства. Правда, дискурс при этом будет более гибким и адекватным. Проведем проверку «на прочность» эффекта дискурсивной дискретности на базе информационного подхода. Сразу же отметим, что возведение дискретности в причину неполноты и противоречивости дискурса при ближайшем рассмотрении не столь очевидно. Фортепиано ведь тоже дискретно, как и нотный стан, а как доказателен Шопен! Ненависть континуальна, но как она бездоказательна! Смешение рассудка и чувства здесь не случайно: доказательность многомерна, полиморфна. Например, доказательство, основанное на единственной методике, единственном аргументе, единственном авторитете, не впечатляет. Одномерная континуальная числовая ось не дает доказательного представления о N-мерном пространстве;

нужны N таких осей. И в то же время N дискретизированных числовых осей описывают «сеточное пространство», в котором потенциально доказуемы сущности и явления, имеющие место лишь в узлах сетки, но не внутри ее ячеек. Если дискурсивная «сетка» вносит регулятивное начало во входной поток высказываний в рамках дедуктивной системы доказательств, то, очевидно, часть высказываний будет упущена сквозь дыры «сеточной» дискретности. Тем более это справедливо для одномерного дискурса (рис. 29). Представим дискурс как регулятор, дедуктивное доказательство некоторого утверждения (теоремы) как объект регулирования (управления), поток высказываний как входы объекта, а значимость высказываний как его выход. Шкала значимостей обычно ограничена малым объемом шкальных значений (например, «истина» и «ложь»), и в это прокрустово ложе значимости должны быть втиснуты через доказательство все высказывания. Та 2-значная логика 6-значная логика 3-значная логика Рис. 29. Трехмерный дискурс (к понятию N-мерного дискурса) кая логическая система управления гомеостатична. Следовательно, она должна подчиняться информационному закону необходимого разнообразия и связанным с ним принципам информационного подхода. Согласно закону необходимого разнообразия разнообразие высказываний (возмущений) парируется разнообразием логических операций (управлений). Каждый объект - дедуктивное доказательство - может быть возмущен практически бесконечным множеством высказываний. Значительная часть этих высказываний внерассудочна, не меньшая часть - метафизические высказывания - вообще не может быть высказана, а только показана (по Витгенштейну). В то же время одномерность пространства логических управлений доказательством (даже с учетом вложенности, иерархичности этих управлений в рамках принципа роста разнообразия, даже с переходом к нечеткой логике) не позволит парировать все высказывания. Дедукции не хватает многомерности, в результате нарушается закон необходимого разнообразия и гомеостаз доказательства. Следствие - остаточная неопределенность доказательства, имеющая, как мы знаем, информационное измерение и характеризующая неполноту логики. Аналогично известные физические соотношения неопределенности имеют информационное измерение и тоже характеризуют неполноту логики физических доказательств. В частности, соотношение неопределенностей Гейзенберга-Бора характеризует неполноту логики доказательств квантовой физики. Этот пример не случаен - просматривается общность природы подобных неопределенностей, обусловленная дискретностью (квантованностью) логических моделей и недостаточной мерностью логик - одномерностью, в лучшем случае - двумерностью (корпускулярноволновая логика). В социометрии известен эффект нетранзитивности матриц парных сравнений, когда респондент, предпочитающий объект А объекту Б, а объект Б объекту В, неожиданно для социолога может предпочесть объект В объекту А, чем нарушает транзитивную логику: если А>Б и Б>В, то А>В. Но такова данность многомерной логики респондента, и социологу ничего не остается, как считаться с ней [140]. Напомним также, что создатели компьютерных сетей во избежание проблем неполноты и противоречивости (конфликтности) взаимодействий прикладных программ успешно реализовали семиуровневую систему протоколов связи (правил сетевой логики) OSI (Open Systems Interconnection), что является ничем иным, как технической реализацией многомерной логики взаимопонимания открытых кибернетических систем (рабочих станций, серверов, хостов и т.п.) [114]. Формальная логика - продукт человеческого разума, основанный на человеческом опыте, но абстрагированный от последнего, как и положено дедуктивному методу. В результате вместо конкретных вещей - Солнца, этого муравья, того камня, Сократа, моей мысли - формальная логика имеет дело с абстрактными классами вещей - звездами, муравьями, камнями, греками, мыслями - в лучшем случае, с некоторыми из них, где «некоторые» - логический квантор, но никак не переход к конкретным вещам. Логика оперирует с классами в силлогизмах, пропозициях и предикатах, не заботясь об индивидуальности элементов класса. И если в высказывании упоминается конкретный Иван, то для логики он равнозначен «некоторому русскому». Однако есть высказывания, достоверность которых зависит от индивидуального значения слов, обозначающих вещи. В этой ситуации формальная логика бессильна;

она не улавливает индивидуальные значе ния слов своей дискретной «сетью», предназначенной для более крупной «рыбы» - классов вещей. Здесь важно семантическое измерение, обладающее, по-видимому, меньшей дискретностью, чем формально-логическое и потому используемое в языках понимания. В ряду многозначных антропных логик наряду с нечеткой логикой лингвистических переменных (Заде [60,185]) нельзя не упомянуть трехзначную модальную логику Лукасевича, k-значную логику Поста, непрерывную логику [96]. Но и эти логики апеллируют к схематизму «левополушарного» объяснительного мышления. На уровне понимающего мышления требуется принципиально другая логика, возможно, кантовская трансцендентальная логика, предметом которой являются не столько формально-логические конструкции высказываний и предикатов, сколько их смыслы и ценности для рефлексирующего субъекта. Если нам не хватает для доказательства лингвистического, семантического или какого-то другого антропного логического измерения, что ж, мы вправе обратиться к внечеловеческой логике, например, логике фауны или флоры, к логике других цивилизаций, оставивших свои следы памяти в информационном поле. Иными словами мы должны не пренебрегать, а учиться и другой логике как продукту другого разума, основанному на другом опыте. Эти другие логику, разум, опыт мы не заключаем в кавычки, полагая, что только высокомерие человека игнорирует и даже отвергает их без должных оснований, даже когда человек со своими логикой, разумом и опытом оказывается перед тупиковой проблемой. Тупик - это знак для поиска в других направлениях, в других измерениях. Логический тупик - не исключение. Полагаем, что только полиморфный логический вывод позволяет в рамках закона необходимого разнообразия успешно регулировать гомеостаз системы мыслимых доказательств. Максимы единства знания единого Универсума и методологического полиморфизма не противоречат друг другу. Именно для достижения первой максимы так важно придерживаться второй. Методологический моно морфизм во все времена приводил к застою и заблуждению, ибо, сам того не подозревая, нарушал закон необходимого разнообразия тем, что не парировал разнообразие опытных данных методологическим регулятивным разнообразием. Логический мономорфизм нарушает информационный принцип ограничения разнообразия - логике не удается оптимально перекодировать разнообразие высказываний в собственное разнообразие дедукций с целью эффективного управления доказательством. Дискурсивная левополушарная логика рассудка должна быть комплементарно дополнена логикой других измерений - целостно-образной правополушарной логикой чувства, интуиции, под- и надсознания, логикой сверхчувства (информационного поля), логикой ноосферы. Тогда, возможно, она приблизится по своим свойствам к понятиям полноты и непротиворечивости. В качестве типичного примера сошлемся на системы доказательств, базирующиеся на комплементарных или даже антагонистических доктринах (научных, идеологических, философских, экономических и пр.). Здесь достаточно даже двух доктринных измерений, не связанных в систему логических координат, чтобы каждая из логик порознь оказалась бессильной, а гомеостаз недостижимым. Особенно это справедливо для философии, ибо, напомним, если логика и наука несут ответственность за правильность доказательств и истинность утверждений, то философия никакой ответственности не несет - поиск смысла высказываний безответственен, не наказуем, направленность вектора поиска произвольна, рефлексия имеет бесконечное число степеней свободы. Философ может, но не обязан дедуцировать в своей рефлексии. И тем не менее, рефлексируя (пусть и вне логики), философ (пусть и непроизвольно) обосновывает свою концепцию, свое видение исследуемой проблемы. Значит, философское доказательство требует к себе эксплицитного отношения не меньше, чем научное доказательство.

Чего же добивается философ, дедуцируя или фантазируя в своих доказательствах? Он добивается апостериорного минимума неопределенности доказуемого, т.е. максимума информативности. Поэтому применим к проблеме философского доказательства принцип максимума информации1. Для этого представим утверждение X и его доказательство Y как сложный источник информации (X,Y). Полная взаимная информация I(X,Y) согласно (11) – (14) равна: I(X,Y)=H(X)-H(X|Y)=H(Y)-H(Y|X), (меры неопределенности) утверждения и доказательства. Апостериорная условная энтропия H(X|Y) характеризует остаточную (после уяснения доказательства) неопределенность утверждения, H(Y|X) остаточную (после уяснения утверждения) неопределенность доказательства. Нас будет интересовать первая пара равенств в (42): I(X,Y)=H(X)H(X|Y). В разделе 2.1.2 показано, что H(X)>0, H(X|Y)0, H(X) H(X|Y). Тогда максимум информации при фиксированной H(X) достигается, если H(X|Y)=0, и он равен I(X,Y)=H(X). Это возможно при полном снятии неопределенности утверждения после его доказательства. Такое доказательство считается идеальным. Здесь «идеальность» следует понимать двояко как высшую меру качества и как низшую меру реальности доказательства. Реально полное снятие неопределенности (абсолютное доказательство на все времена) невозможно, поэтому всегда H(X|Y)>0 и I(X,Y)

(42) где H(X) и H(Y), H(X|Y) и H(Y|X) - априорные и апостериорные энтропии верждения это доказательство снимает, чем меньше остаточная неопределенность H(X|Y). Естественно, философ, как и любой исследователь, стремится к максимуму полной взаимной информации I(X,Y). В максимизации информативности доказательства интенционально смыкаются цели логики, науки и философии. Было бы странным, мягко говоря, философствование, не преследующее этой цели, когда априорная неопределенность высказываний, смысл которых философ должен был бы прояснить, ни на йоту не уменьшилась или уменьшилась несущественно. До сих пор мы не обсуждали средств максимизации информативности доказательства. Из изложенного, однако, следует, что они довольно жестко связаны с семантикой доказуемых утверждений. Чем глубже последние, т.е. чем большее разнообразие состояний утверждаемых сущностей или явлений эти утверждения описывают, тем больше должно быть и разнообразие средств доказательства, адекватных содержанию доказуемого утверждения. Назовем это свойство валидностью доказательства Так, если утверждение явно или опосредованно содержит информацию о биофизических и математических феноменах, то валидное доказательство должно использовать адекватные биофизические и математические законы и закономерности в их логической взаимосвязи для полной, непротиворечивой аргументации. Если утверждение классифицируется как этическое, эстетическое, эмоциональное, метафизическое и т.п., то валидное доказательство (если оно возможно) должно использовать адекватные средства, выходящие за рамки логики с ее информационной упорядоченностью, структурной жесткостью, творческой несвободой. Валидность доказательства аналогична омическому и амплитудно-фазо-частотному согласованию канала связи с нагрузками по входу-выходу. Без такого согласования значительная часть энергетического спектра сигнала может быть утеряна в канале связи. Аналогично, невалидное доказательство разрушает свою информативность, свое разнообразие.

Напомним также, что доказательство - информационный процесс, и, следовательно, к нему применимы принципы кодирования и коммуникации. Начнем с принципов кодирования. Ни одно конечное доказательство не достигает цели стопроцентно. Обязательны недопонимание и вопросы. По опыту, новый материал оказывается воспринятым и понятым максимум наполовину даже коллегами, не говоря об учащихся. Причин этому несколько: • частично непересекающаяся многомерность логик мышления источника и потребителей доказательства;

• ограниченность оперативной памяти потребителей;

• помехи в канале связи и низкая чувствительность приема (высокие пороги обнаружения и различения сигналов);

• нарушение требуемого соотношения (R C) между информационной производительностью R источника доказательства и пропускной способностью C канала связи;

• неоднозначность вербальной логической формы, проистекающая из лингвистической неоднозначности высказываний;

• невостребованность доказательства. Для компенсации этих факторов в код доказательства вводится избыточность (повторение, кодовая многомерность), согласование R и C, перекодирование. Последнее, в нашем понимании, означает изменение формы доказательства с целью повышения его информативности. Понятие информативности сообщений в канале связи не может игнорировать их длительности. Ведь производительность источника и пропускная способность канала - темповые характеристики. Поэтому введем темповое понятие информативности доказательства как отношение переданной им информации к его длительности. Если информация измеряется в битах, то размерность темповой информативности доказательства (бит/сек) и ее смысл совпадают с размерностью и смыслом R - информационной производительности источника информации (доказательства).

Отсюда следует, что доказательство должно кодироваться согласно принципу выбора кода, по возможности, самыми лаконичными из лингвистических (первичных) кодов, понятных передатчику и приемнику. Но такие коды, как показано в разделе 3.1.2, одновременно и самые сложные из выбираемых (по объему алфавита nк). Следовательно, каждый символ такого кода несет максимум информации log nк согласно (40) по сравнению с символами более простых (по nк) и, как следствие, более «длинных» кодов. Применительно к темповой информативности доказательства приобретает реальный смысл и принцип надежного кодирования Шеннона: если темп производства информации в процессе доказательства не превышает возможностей (пропускной способности) потребителей, то доказательство всегда можно закодировать так, что оно будет передано потребителям без задержек с вероятностью ошибки, сколь угодно близкой к нулю (но не равной нулю). Напомним, что так же, как логика доказательства не отвечает за истинность его исходных посылок и результата, так и канал связи не отвечает за содержание переданного доказательства. Что касается неоднозначности вербального кодирования, то, полагаем, что предпочтение, отдаваемое ему по традиции большинством философов перед другими формами кодов неубедительно, когда речь идет о дискурсе. Для потребителей с развитым абстрактно-логическим мышлением предпочтительными являются коды формальной логики, математики, эксперимента. Для потребителей с развитым целостно-образным мышлением предпочтительны «эйдетические» коды, гештальты. Философствование с применением этих кодов существенно повышает информативность и достоверность философского доказательства. Наконец, с позиций принципов коммуникации обратим внимание на специфические внутрисистемные помехи, создаваемые каналу передачи доказательства самими потребителями этого доказательства. Подобные помехи субстрагируются в виде априорных установок потребителя, сопут ствующих или препятствующих приему доказательства данным потребителем. Эти помехи объективны в том смысле, что любое субъективное мышление в процессе приема (восприятия) доказательства обладает априорной информацией, в общем случае не совпадающей (в лучшем случае, частично совпадающей) с исходными посылками логики доказательства и ее кодами. Эта информация в той или иной степени конфликтует с доказательством, мешает его адекватному приему, недопустимо загрубляет вход приемника, повышая сверх меры пороги обнаружения и различения сигналов. При особо интенсивных помехах возможны коллизии типа «не хочу понимать», «не понимаю, значит, неправильно» и т.п. В этих условиях «кодер канала» должен учитывать характер и интенсивность подобных помех и вводить адекватную им избыточность в логику доказательства, например, через механизмы повторения, апробирования, аналогий и т.п. Конечная длительность доказательства не позволяет реализовать в пользу его достоверности весь возможный спектр аргументов. Значит, аргументы должны быть подобраны так, чтобы их суммарная информативность была, по возможности, эквивалентна информативности подавляющей части этого спектра. В теории сигнала используется понятие ширины (экв) эквивалентного спектра сигнала, который характеризует гипотетический конечный прямоугольный энергетический спектр сигнала, равный по площади (в системе координат спектр-частота ) реальному спектру S() - рис. 30. Реальные частоты спектральных составляющих сигнала изменяются от 0 до, но в эквивалентном спектре - от 0 до экв, при этом энергетически оба спектра равнозначны. Часто эквивалентный спектр называют эффективным спектром сигнала. По аналогии, в доказательстве должно присутствовать конечное число аргументов, равное по информативности (насколько это возможно) их реальному количеству. Условно назовем такое доказательство эффективным. В пределах эффективного доказательства суммарная информативность попавшей в него части наиболее значимых аргументов должна рав Реальный спектр Эквивалентный спектр С п е к т р экв Частота Рис. 30. К понятию эквивалентного спектра сигнала равняться суммарной информативности всех мыслимых аргументов. Квалификация логика прямо коррелирована с его умением формулировать эффективные доказательства в указанном смысле. Итак, ключевой характеристикой философского доказательства, как, впрочем, и любого другого, является его информативность. Согласно (42) из доказательства можно извлечь максимум информации, если оно обнуляет апостериорную неопределенность исходного утверждения X (при этом условная энтропия H(X|Y)=0). Но, кроме вычитаемого в формуле (42) есть уменьшаемое H(X) - безусловная энтропия утверждения как мера его априорной неопределенности. Если допустить вариабельность энтропии H(X), то глобальный максимум информации I(X,Y) достигается при максимуме H(X) и минимуме H(X|Y). Из теории информации известно, что максимальная безусловная энтропия источника информации достигается при равновероятности его возможных состояний [42,52]. Источник информации у нас - исходное утверждение, имеющее с точки зрения доказательства два состояния - истина (И) и ложь (Л). Для такого двоичного источника график энтропии Н(Х) имеет вид, изображенный на рис. 31. Здесь Р - вероятность одного из двух состояний - И, Л. Очевидно, что при обязательной нормировке вероятностей (сумма вероятностей всех состояний равна единице), если РИ=1, то РЛ=0 и наоборот. При таких вероятностях состояний одно из них достовер но, второе невозможно. Энтропия такого источника равна 0, т.к. заведомо ложное или истинное утверждение неинформативно. Максимум энтропии (Н(Х)= log 2 2=1 бит) достигается при Р= РИ= РЛ=0,5, когда мы априори не можем склониться ни к одной из версий (И, Л) истинности утверждения. Итак, максимальная информация, получаемая в результате доказательства одного утверждения, равна I(X,Y)=1-0=1 бит.

Э н т р о п и я (бит) 0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 Вероятность Рис. 31. Энтропия двоичного источника Осмыслим результат. Чтобы доказать свою правоту, человек тратит массу ресурсов, пишет книги, доносы, диссертации, проводит длительные дорогостоящие опыты и изнурительные дискуссии, затевает войны, убивает, погибает сам (иногда геройски) - и все это ради одного или нескольких бит информации, за которыми эфемерные истина или ложь! Какова же цена информации, заключенной во всех апробированных доказательствах человека и исчисляемой многими миллиардами бит?! И сколько потерь понес человек в процессе ее добычи, доказывая свою правоту ценой здоровья и даже жизни, а также силой, измором, дезинформацией, подкупом?! Что полезного, кроме явного вреда, дали и дают человечеству антагонистические отношения культур, опирающихся на различные религиозноконфессиональные или политико-идеологические платформы? Такова цена единицы информации – бита - неизмеримо большая по сравнению с ценой единицы энергии или единицы массы вещества. Вопервых, это косвенно свидетельствует о существенной ценности информации (идей, знаний) по сравнению с материей и энергией, во-вторых, - о невостребованных пока резервах разума человека. Если эти резервы в обозримом будущем не включатся в работу, следует говорить уже не о резервах разума, а о неразумности человечества. Доказать нечто можно только через взаимопонимание, достигаемое в некоем полевом взаимодействии через его информационную компоненту при исключении искажающего (шумящего) влияния силовой компоненты. Традиционное информационно-энергетическое, «затратное» доказательство как управление должно уступить место чисто информационному, ресурсосберегающему взаимопониманию как связи. Именно в этом заключается, по нашему мнению, герменевтическая суть диалога культур;

реализация же усматривается в без- или малоэнергетических информационных процессах, элиминирующих шумящие знаковые преобразования кодирования-передачи-декодирования информации, которые свойственны традиционному диалогу. Найдут ли распространение в XXI веке такие информационные процессы, известные скорее в эзотерических, восточных культурах, а также в отдельных феноменальных проявлениях человеческой психики [9,87,95,131,152], сказать трудно. Однако закон информационной экспансии целеполагает именно такие информационные процессы, на реальность которых, помимо известных фактов, указывают некоторые результаты современной девиантной науки, нуждающиеся в проверке, а также косвенно история развития материальной культуры и социальноэкономических формаций, в частности, информационного общества. Важно понять, что в современном мире глобальной информатизации и глобальных телекоммуникаций, где права человека на информацию и защиту от информации, на конфиденциальность информации и интеллектуальную собственность закреплены законодательно, традиционные доказательные, внушающие, воспитательные, обучающие функции культуры (условно назовем их насильственными функциями) требуют все больших ресурсных затрат, достойных лучшего применения. Это значит, что от навязывания (пропаганды) субъективных культурных ценностей («культур ного причинения»), от воспитательных «мероприятий», наконец, от традиционных форм обучения требуется переход к герменевтическим и феноменологическим технологиям взаимопонимания культур, самовоспитания, самопознания и самообучения в благоприятной информационной среде. 4.2. Информационные закономерности развития знания Исследуем природу знания как высшей формы информации. Выше мы попытались доказать, что апостериорное количество информации всегда конечно. Следовательно, любая истина как продукт познания и элемент знания квазибесконечного Универсума относительна. Соответственно, реальное знание как некая композиция относительных истин онтологически относительно. Абсолютное знание – абстрактное, метафизическое понятие, ибо абсолютная истина и познание несовместимы. К этим утверждениям задолго до нас пришли многие философы, и не стоило повторяться, если бы не одно обстоятельство: мы доказали данные утверждения количественно, чего, насколько нам известно, традиционная философская рефлексия избегает. Повторимся, что привнесение количественных методов исследования в философию является одним из доктринных положений данной работы. И здесь мы тоже не оригинальны. Так, давно известны количественные методы анализа в истории и историографии, в языкознании и логике, в психологии и социологии, эстетике и культурологии. Указанные области гуманитарного знания в той или иной степени входят в юрисдикцию философии, поэтому к суждению Ортега-иГассета о том, что «…философствование – это нечто очень точное» [103, с.333], следовало бы относиться с пониманием. Приведем несколько количественных доказательств онтологической относительности знания. Известно, что точность вычислений действительных чисел в компьютере определяется суммарной разрядностью (r) регистров, выделяемых для мантиссы этих чисел [64]:

2-r (43) При 0 r. Таким образом, абсолютно точные вычисления требуют бесконечной разрядности мантисс и регистров ЭВМ, что нереально. Аналогично, если мы хотим абсолютно точно измерить координаты точки, нам придется использовать излучатель электромагнитных волн бесконечно короткой длины. Но энергия кванта электромагнитного излучения равна e=hc/, электромагнитных волн. Из (44) следует, что при 0 e. Следовательно, в момент начала подобного гипотетического опыта установка взорвется прежде, чем будут получены результаты. Даже если предположить, что опыт удался, то получаемое при этом количество информации по любой из линейных координат равно [50] I=lim log L/ =, (45) 0 где - точность, L - длина отрезка по данной координате, в пределах которого производится уточнение местоположения точки. Мы пришли к совпадению (45) и (32). Вывод очевиден: для восприятия бесконечного количества информации требуется бесконечная память и бесконечный по времени акт познания, что нереально. Разрядность регистров ЭВМ и нейронных «регистров памяти» мозга ограничена. Длины волн, генерируемых и воспринимаемых измерительными установками и органами чувств, конечны. У всех естественных и искусственных информационных систем конечны мощности передатчиков, размеры антенн, энергетические (амплитудные) чувствительности приемников, огрубляемые реальными тепловыми шумами. Конечна избирательность приемников по амплитуде, частоте, длительности и фазе сигналов. Сами сигналы конечны и по длительности, и по спектру. Всегда конечно время (44) где h и c - соответственно постоянная Планка и скорость распространения познания (наблюдения, приемо-передачи). И всегда есть помехи. Чего никогда нет, так это идеальных условий для познания. Принципы коммуникации (связи) конституируют объективность задержек, искажений и даже потерь передаваемой информации1 в любом акте познания. Согласимся, что, обосновав относительность любого акта познания, невозможность абсолютного знания и неизбежность ошибок и заблуждений любого опыта, любой теории, основанной на опыте, и любой трансценденции, оторванной от опыта, концептуально мы не узнали ничего нового. Лишний раз подтверждена онтологическая относительность позитивного знания. Единственную пользу сделанных выкладок мы усматриваем в количественном обосновании этой проблемы на основе информационного подхода, в явном доказательстве ее информационной природы. Это дает нам основание применить законы и принципы информационного подхода к данной проблеме, рассмотрение которой мы начнем с самоорганизации тезауруса - базы знаний системы. Условимся называть информационные элементы (блоки), приобретаемые (формируемые) тезаурусом в процессе самоорганизации, данными. Данные превращаются в знание на этапе самообучения, когда система, в основном (но не только), познает собственное разнообразие (с учетом новых информационных блоков) и отображенную среду, ищет, отбирает и запоминает ценную информацию в потоке данных, устанавливая дополнительные связи между ними. Строго говоря, этапы самоорганизации и самообучения не поддаются разделению во времени, характер отношений между ними – диффузионный. Действительно, организация (упорядочивание) как ограничение разнообразия невозможно без познания последнего, без поиска и отбора ценных данных, без использования первичных механизмов памяти. В свою очередь, самоорганизация не прекращается на этапе самообучения, как при Строго говоря, информация не теряется, она просто не доходит до потребителя, оставаясь непроявленной в виде «информационного дефицита» (см. раздел 2.1.2).

Pages:     | 1 |   ...   | 2 | 3 || 5 | 6 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.