Г. Н. Зверев, д т. н., проф каф компьютерной математики, тел. (347) 228-66-20


Скачать 405.28 Kb.
НазваниеГ. Н. Зверев, д т. н., проф каф компьютерной математики, тел. (347) 228-66-20
страница2/3
ТипДокументы
filling-form.ru > Туризм > Документы
1   2   3

3. Свойства информации
Различают три основных свойства информации: 1) объем информации, количество элементарных знаков данного типа в информационном объекте, 2) информативность сообщения, мера качества информации, мера повышения определенности и точности новых знаний, 3) ценность, материальная или обобщенная полезность информационного объекта. В практической деятельности эти свойства иногда совмещают, что приводит к семантическим шумам и потерям эффективности анализа и синтеза информационных процессов.

Объем информации определяется в подходящих единицах материального носителя: числом страниц, объемом памяти, временем звучания, воспроизведения и т. п. Эта мера имеет симметричное отношение к источнику и приемнику информации. Информативность сообщения или качество информации асимметрична, ее оценивает потребитель при решении своих проблем, она определяется новизной поступившей информации для субъекта и ее адекватностью, достоверностью, характеризующей свойства источника информации, который косвенно оценивает информационные потребности в виде ожидаемых показателей информативности: полнота, объективность, своевременность полученных данных и т. п. Обычно информативность объекта y оценивается приемником уменьшением меры неопределенности свойств неизвестного объекта x или повышением точности оценки за счет использования объекта y в решении одной или многих задач. В теории информации вариативная мера информационной полезности называется количеством информации, содержащейся в известном y относительно неизвестного x и оценивается в логарифмической шкале уменьшением среднего числа возможных значений x. В индефинитике — теории неопределенностей – вводятся вариативные и адеквативные (точностные) меры информативности в линейных, логарифмических и других шкалах. Так, если использование информационного объекта повышает точность оценки x на 5%, то эта величина есть адеквативная мера информативности в проблеме оценки x [3].

Обобщенная ценность информации также асимметрична и определяется приёмником, потребителем показателями экономии затрат материалов, энергии, времени и других ресурсов. Часто в свойства информационного объекта y включают характеристики решаемых проблем, свойства решающих систем и процессов в них, зависящих от наличия фактических данных, теоретических моделей, априорных знаний, что не совсем правомерно. Так, свойство полноты исходной информации есть характеристика постановки решаемой проблемы, оперативность есть свойство источника информации и процесса решения, релевантность есть характеристика предваряющего процесса сбора, поиска необходимой информации, защищенность информации характеризует свойства надежности информационной системы, удобство формы представления данных выражает эргономические показатели человеческого восприятия сообщений.

Неотъемлемым семантическим атрибутом всякой информации является то, что в логике называется предикативностью высказывания, т. е. информация имеет отношение к реальности и утверждает нечто о ее свойствах. Основное предназначение информации — обеспечить достижение целей живых систем — сохранение, продление жизни, улучшение ее характеристик целесообразными действиями. Информация как синтаксическая структура есть знаковый носитель ее -семантики в процессах решения проблем, это предельно гибкий ресурс, интегрируемый с любыми другими ресурсами. Если субъект передает информацию другому субъекту, то он сам ее не теряет (за исключением материального носителя). Информация не существует без материального носителя, неживая материя существует без информации. К этому следует добавить, что составляющие информацию метазнаки-понятия есть весьма гибкие открытые системы, легко допускающие изменения и пополнение новыми смыслами в языковой системе, т. е. они способны быть заменителями заменителей при кодировании-декодировании, абстрагировании-конкретизации, обобщении-ограничении, идеализации проблемных ситуаций.
4. Другие определения категорий информатики
Трудности, с которыми столкнулись ученые при анализе смысловых значений понятия «информация» и их объективации, в значительной степени обусловлены участием в информационных процессах порождения, восприятия, переработки сообщений недостаточно изученными механизмами мышления и речи, сенсорики организма человека. В первых определениях, выполненных в неформализованной среде естественного языка, информация выступает как неуловимая субстанция, заменяющая образ или прообраз изучаемого явления, которую можно попытаться как-то характеризовать наблюдаемыми свойствами и аналогиями с изученными физическими явлениями.

В 1925 г. Р.А. Фишер, основатель значительной части математической статистики, ввел квадратическую меру количества информации и уточнил ее смысл на основании понятия достаточной статистики, т. е. такого преобразования статистической выборки, результат которого – достаточная статистика – содержит всю полезную информацию, содержащуюся в выборке об искомых, подлежащих оценке параметров, см. [6]. Например, среднее значение, полученное по случайной выборке нормально распределенного параметра, есть достаточная статистика для оценки неизвестного матожидания этого распределения. В определении Фишера имеются два информационных объекта: исходная выборка, порожденная сенсором, и достаточная статистика, порожденная рефором, две информационные связи этих объектов, которые позволяют с одинаковой степенью уменьшить неопределенность оценки искомого, повысить ее точность, в чем и состоит смысл выражения «содержит всю полезную информацию».

В 1928 г. вышла статья инженера Р.В.Л. Хартли, в которой «На основе физических (а не физиологических) соображений установлена количественная мера «информации»..., обсуждается, насколько ограничена скорость передачи информации помехами...В обычном понимании термин «информация» слишком эластичен» [7]. В этой работе вводится логарифмическая мера информации, «не зависящая от психологических факторов», а слово «информация» в данной статье имеет смысл сообщения, передаваемого телеграфом, радио, телевидением.

В 1929 г. физик Л. Сциллард опубликовал работу, посвященную анализу проблемы демона Максвелла и связи между понятиями информации и термодинамической энтропии физической системы – статистического ансамбля атомов и, опираясь на эту связь, предложил меру информации, равную отрицательной энтропии термодинамической системы, см. [8]. Демон Максвелла — мысленная абстрактная модель информационно-управляющей системы — измеряет сенсором скорость и направления движения атома газа, обрабатывает рефором измерительную информацию и принимает решение открыть или закрыть эффектором заслонку в сосуде с газом, тем самым демон перерабатывает информацию в физическую энтропию, повышая или понижая её. В последнем случае информация является «горючим» для вечного двигателя второго рода [9].

В 1948 г. и далее были опубликованы работы К. Шеннона, которые развивали идеи Хартли и получили название «теория информации», хотя Шеннон ограничился названием «теория коммуникации», введя понятие информационной энтропии как меры исходной и остаточной неопределенности сообщений, из которых построил меру информации [10]. В том же году Н. Винер в широко известной «Кибернетике» ввел по сути такую же меру неопределенности, но со знаком минус и дал «негативное» определение информации – перечислил то, что не является информацией: «Механический мозг не выделяет мысль, «как печень выделяет желчь»... и не выделяет ее в виде энергии, подобно мышцам, информация есть информация, а не материя и не энергия». Позднее во второй книге «Кибернетика и общество» Винер сформулировал «позитивное» определение: «Информация — это обозначение содержания, черпаемого нами из внешнего мира в процессе нашего приспособления к нему и приведения в соответствие с ним нашего мышления», вполне в духе семиотической дефиниции. Для критиков данное определение Винера означало недопустимую замену одного слова (информация) другими словами (обозначение и содержание) той же степени смысловой неопределенности, поэтому оно осталось невостребованным.

Вместе с тем подобно Сцилларду Винер придерживался взглядов на информационные явления с позиций статистической физики, абстрагируясь от существенных различий понятий физической и информационной энтропии, определяя информацию как меру организованности, а энтропию как меру дезорганизованности материальной системы — дента, прообраза физических моделей, а не конта, образа, т. е. физической информации о системе, полученной наблюдателем. Очевидно, степень организованности материи определяется не информацией о системе, доступной наблюдателю, а законами материального мира: минимума энергии равновесного состояния, максимума физической энтропии и др.

Идеи Сцилларда и Винера активно развивали Л. Бриллюэн [8], Р.Л. Стратонович [9], создатели и приверженцы синергетики, см., например, [11]. Триада Винера «материя-энергия-информация» стала популярной в научном мире, однако в теоретической информатике более обоснована дихотомия «материя–информация», а энергия есть свойство материи, ее движений и напряженных состояний, подобно таким понятиям, как масса, сила, заряд и другие измеряемые и вычисляемые физические свойства материальных систем, при этом энергия разделяется на свободную и связанную, последнюю характеризует физическая энтропия, которая описывает свойства необратимости и случайности физических состояний и преобразований.

Энергия является неотъемлемым свойством материи, информация не является свойством, это автономный объект с информационными свойствами и функциями, непременно присутствующий в живой материи и той части неживой материи, которую «оживил» целеориентированный субъект, придав ей функции сенсоров, рефоров, эффекторов и носителей информации, знаний. Материальное взаимодействие тел осуществляется обменом вещества и энергии, информационное взаимодействие субъектов состоит в обмене материальными носителями сообщений в единой языковой среде. Взаимодействие субъекта языковой среды с материальным миром выполняют сенсорные и эффекторные процессоры субъекта.

Бриллюэн, вслед за Сциллардом и Винером, определяет информацию «как отрицательное слагаемое энтропии системы... Энтропия физической системы часто описывалась как мера случайности строения системы... Термодинамическая энтропия есть мера недостатка информации о некоторой физической системе» [8]. Эти взгляды на физическую энтропию и информацию призваны были обосновать незыблемость второго начала термодинамики и нашли свое продолжение в трудах Стратоновича [9], а также в работах по синергетике — теории самоорганизации неравновесных термодинамических, механических и других систем. Однако в этих трудах не выделяются формально и по существу источники, преобразователи и потребители информации, проблемные (материальные) и решающие (информационные) системы. Скажем, физика – это информационная система, которая решает проблемы адекватного описания свойств материальной реальности, поиска фундаментальных законов существования неживой материи, вооруженная информационными средствами наблюдений, измерений физических параметров — сенсорами, обработки фактической и теоретической информации физических экспериментов — рефорами, средствами материального (но не информационного) воздействия на проблемные физические объекты — эффекторами. Материальные системы и процессы причинно ориентированы, не имеют целевой ориентации, для чего необходима информация, и все многовековые попытки найти цели и целесообразное поведение неживой природы оказались безуспешными.

Увеличение или уменьшение физической энтропии в открытых системах и их самоорганизация в общем случае не зависят от информации и знаний наблюдателя и подчиняются физическим законам, поэтому информацию и ее меру нельзя определять фактом и величиной уменьшения физической энтропии. Автор известных книг по термодинамике И.П. Базаров подчеркивает: «информационная энтропия не является термодинамическим параметром... В публикациях сначала отмечали различия физической и информационной энтропии, а потом пошли вслед за Л. Бриллюэном» [12]. Физическая энтропия описывает свойства энергии статистического ансамбля молекул, информационная энтропия характеризует свойства источника информации в заданном классе — статистическом ансамбле — информационных ситуаций различать проблемные объекты. Связь между двумя видами энтропии есть связь между образами — контами, а не прообразами — дентами, подобно тому, как одно дифференциальное уравнение может с одинаковым успехом описывать поведение механических, тепловых систем и военные действия между государствами. Аналогично, образование кристалла с регулярной внутренней структурой из хаотического раствора или сложных фигур снежинок в морозном воздухе соответствует равновесному состоянию вещества и экстремальному значению термодинамического параметра системы, а не максимуму бриллюэновской или синергетической информации. Наличие или отсутствие в проблемной системе целей и соответствующей им информации определяет границу между существом и веществом, которую давным давно в других терминах ввели родоначальники науки. Отвлечение от различий информационных и материальных процессов, живой и неживой материи ведет к бесплодным поискам, к противоречиям и парадоксам.

Источник информации о материальной реальности – сенсор субъекта — на входе имеет материю, на выходе — знаковую структуру, описывающую свойства материи. Приемник информации — сенсор и рефор субъекта — в нормальных ситуациях на входе имеет материальный носитель информации, -знак модельного мира , который после синтаксического и семантического декодирования преобразуется в новую информацию, новые знания субъекта, а в общем случае приемник должен различать знаки и незнаки – информационные и материальные объекты, последние не являются носителями информации, у них нет источника, который наделяет материю смыслом о свойствах проблемной системы.

Бриллюэн вслед за Винером дополняет семантику информационной и физической энтропии связью с беспорядком, т. к., по его мнению, энтропия оценивает меру «случайности строения системы» [8]. Эта идея в иной форме задолго была развита основателями статистической физики Л. Больцманом и Дж. Гиббсом, однако, чтобы применить ее к понятию информации, к информационным процессам, необходимо дать конструктивное определение случайности, беспорядка, различать прообраз, информацию о нем и ее свойства, т. е. отличать знаковую структуру от ее объема и информативности. Эта программа в известной степени была выполнена А.Н.Колмогоровым в его алгоритмической теории информации [13-16, 3], в которой центральным понятием является сложность информационного объекта — энтропия индивида по Колмогорову (а не класса индивидов при статистическом подходе), заменяющая термодинамическую энтропию.

В теории Колмогорова не учитываются искажения и неполнота информационного описания системы, предполагается, что модель системы точно описывает свойства, структуру, функции системы и результаты ее функционирования, служит адекватным заменителем прообраза и можно считать, что при такой идеализации сложность системы совпадает со сложностью ее модели и чем сложнее устроена система, тем больше требуется предельно качественной информации для описания ее свойств. Однако в реальных проблемах анализа и синтеза систем важно различать проблемную систему и ее модель. Более того, понятие сложности относится, прежде всего, к образу-конту, а не к физическому прообразу-денту, т. к. в действительности простых систем не бывает, есть только простые и сложные описания — информационные объекты, точные или приближенные, полные — в аспекте поставленных целей — или неполные, приемлемой адекватности либо сильно искаженные, содержащие дезинформативные модели, оценки свойств, понятия, теории. Сложность в этом подходе выступает как мера детерминированной и случайной неопределенности проблемной ситуации.

В математической теории сложности [15, 17] описание ситуации характеризуется объемом информации — количеством знаков или количеством шагов вычислительного процесса. В информационной теории сложности [18, 3] мера обобщенной сложности решаемой информационной проблемы слагается из мер адеквативной (точность), временнóй (скорость, оперативность), емкостной сложности (объем требуемой информации), которые составляют фундаментальные меры и критерии информационной деятельности. В теории Колмогорова, который ограничился простейшей моделью различимости объектов или состояний и описанием системы в виде последовательности нулей и единиц, сложность (энтропия) системы определяется минимальной длиной кода, который после декодирования однозначно описывает исходную систему, а мера информации определяется разностью между исходной и условной сложностью, полученной при условном кодировании, использующим данный информационный объект. В алгоритмической теории информации и алгоритмической теории вероятностей случайность определяется как предельная сложность системы с неустранимой неопределенностью ее состояний, структуры, функций, когда оптимальное кодирование не уменьшает исходную сложность описания системы [14, 15].

Продолжим анализ определений понятий информации и ее мер, используемых в современных публикациях. У. Росс Эшби в основу кладет множество объектов и ситуаций и определяет информацию как меру разнообразия, различимости явлений действительности: «Самым фундаментальным понятием является понятие «различия», означающее, что, либо две вещи ощутимо различны, либо одна вещь изменилась с течением времени». Не соглашаясь с достаточно вольными, зыбкими аналогиями, отождествлением смыслов информационной и физической энтропии и, сравнивая подходы Шеннона и Винера, он пишет: «Оба автора рассматривают информацию как «то, что устраняет неопределенность», и оба измеряют ее количеством неопределенности, которую она устраняет... при получении сообщения...» [19]. Подобных взглядов придерживался В.М. Глушков: «Понятие информации принадлежит к числу важнейших понятий современной науки. Важность этого понятия обуславливается его всеобщностью: с понятием информации мы сталкиваемся при изучении любого явления, происходящего в природе или обществе. С наиболее общей точки зрения процесс получения информации есть не что иное, как процесс снятия неопределенности... » [20]. Вместо снятия или устранения (у Эшби) лучше было бы сказать об уменьшении неопределенности.

Позднее, без должного обоснования, Глушков расширил смысл термина: «Информация, в самом общем ее понимании, представляет собой меру неоднородности распределения материи и энергии в пространстве и времени, меру изменений, которыми сопровождаются все проистекающие в мире процессы» [21]. В данном определении совмещены, во-первых, информационный объект и его свойство (мера информативности) и, во-вторых, совмещены входной и выходной объекты источника информации — сенсора, т. е. свойства материи – прообраза (дента), и свойства информации — образа (конта). Подобное слияние смыслов разных понятий не приводит к серьезным ошибкам, если только сенсор идеальный, а в реальных информационных ситуациях сенсорные преобразования вырождены, искажены помехами и разнообразие информации на выходе сенсора далеко не всегда отражает разнообразия свойств множества входных материальных объектов. Обычно разнообразие действительности больше разнообразия наших знаний о ней.

Определение Глушкова и близкие к нему по смыслу представления нашли много сторонников среди физиков и других специалистов. К.К. Колин, привлекая идею связи между информацией и асимметрией, предложил уточнение и новую интерпретацию определения Глушкова [4, 22, 23], однако в этих формулировках и модельных представлениях также отсутствуют источники и приемники информации, различительные признаки образа — информации и прообраза — материи. Термин «физическая информация» имеет в публикациях неоднозначную семантику: если он обозначает данные о свойствах физического явления, поставляемые наблюдателем и его измерительными приборами, взаимодействующими с неживой материей в соответствии с законами природы, которые устанавливает физика, то здесь всё в порядке, а если информацию считать активным агентом или участником физических процессов, то эта гипотеза не имеет никаких реальных подтверждений. Совсем иная ситуация возникает при конструировании человеком искусственных технических средств из объектов неживой природы для выполнения своих целевых функций, тогда его эффекторы наделяют неживую материю какими-то свойствами живых существ.

М. Мазур определил информацию как «преобразование одного сообщения... в другое сообщение» [24]. В этом определении отсутствует исходный источник сообщения и его семантики, а само сообщение (в наших терминах — информация) в общем случае есть результат преобразования источником информации — сенсором или рефором свойств входного проблемного объекта — первичного источника в выходную знаковую структуру, но не само преобразование, которое составляет этап информационного процесса.

Р.С. Гиляревский, соавтор, пожалуй, первого обобщающего труда по информатике и информации [25], в одной из последних публикаций [5] сформулировал свое видение рассматриваемой проблемы: «Данные суть факты, идеи, сведения, представленные в знаковой (символьной) форме, позволяющей производить их передачу, обработку, интерпретацию..., а информация — это смысл, который человек приписывает данным... Таким образом, информация — это потенциальное свойство данных, которое может быть реализовано одним воспринявшим их человеком и не реализовано другим. Объектом машинной обработки являются данные, а не информация..., машина... не может мыслить». Последнее высказывание противоречит генеральным тенденциям развития информатики, а ограничить понятие информации только семантикой сообщения, которую присваивает приемник информации безотносительно к источнику, материальному носителю и конкретной языковой среде, выглядит не убедительно, впрочем, терминологические споры обычно разрешает прагма естественной языковой среды.

Подобные замечания имеют отношение и к определению В.Д.Ильина, И.А. Соколова: информация — это символьная «модель результата интерпретации сообщения» на символьной «модели выбранной системы понятий» [26]. В данном определении присутствуют приемники, процессы и результаты интерпретации, но отсутствуют другие важнейшие смысловые компоненты этого понятия: источники информации, процессы и результаты формализации, а также носитель информации, который определяет функциональные свойства информационных процессов. Информация источника в общем случае не равна информации приемника. Более того, результат формализации, кодирования семантики сообщения и превращение ее в синтаксическую форму -знака в большинстве информационных ситуаций является, по всей видимости, более значимым, чем результат интерпретации сообщения потребителем информации. Так, разработчики измерительных, вычислительных, управляющих и коммуникационных систем вкладывают весьма ценную информацию в структуру и функции программно-аппаратных средств информатики, которые затем порождают новую информацию для приемников в различных проблемных ситуациях.
1   2   3

Похожие:

Г. Н. Зверев, д т. н., проф каф компьютерной математики, тел. (347) 228-66-20 iconМетодические разработки для студентов москва 1998
Рудн: проф. В. И. Ельцовым-Стрелковым, д м н. Н. И. Захаровой, И. М. Ордиянц, доц каф. Т. В. Гадлиной, Т. П. Голиковой, А. Я. Голдиной,...

Г. Н. Зверев, д т. н., проф каф компьютерной математики, тел. (347) 228-66-20 iconПриглашение
Республика Башкортостан, г. Уфа, ул. Цюрупы, д. 16, тел. (347) 236-78-03, факс (347) 236-78-21, настоящим приглашает вас принять...

Г. Н. Зверев, д т. н., проф каф компьютерной математики, тел. (347) 228-66-20 iconНаучное издание народ и власть в российской смуте
Буховец О. Г., д и н., проф., зав каф политологии бгэу (Минск), вед науч сотрудник ие ран

Г. Н. Зверев, д т. н., проф каф компьютерной математики, тел. (347) 228-66-20 icon5 Межрегиональная научно-практическая конференция со ран васильчик Л. Р
В. К. Клюев, зав каф управления информ библ деятельностью мгуки, канд пед наук, проф

Г. Н. Зверев, д т. н., проф каф компьютерной математики, тел. (347) 228-66-20 iconПрограмма учебного курса «Международное право»
Университета) мид россии (в окончательной редакции – проф. Вылегжанин А. Н., проф. Колосов Ю. М., проф. Малеев Ю. Н., проф. Иванов...

Г. Н. Зверев, д т. н., проф каф компьютерной математики, тел. (347) 228-66-20 iconМетодические указания Красноярск сфу 2009 удк 681. 325. 5 М61
...

Г. Н. Зверев, д т. н., проф каф компьютерной математики, тел. (347) 228-66-20 iconСправочник педагога-психолога. Школа, №7, 2013 г
Автор: С. М. Курганский, заслуженный учитель рф, канд пед наук, проф каф естественно-математического образования Института развития...

Г. Н. Зверев, д т. н., проф каф компьютерной математики, тел. (347) 228-66-20 iconИзвещение о проведении запроса предложений
Заместитель начальника отдела организации и проведения конкурсных процедур – Шепелева Любовь Борисовна, тел. (347) 223-26-74

Г. Н. Зверев, д т. н., проф каф компьютерной математики, тел. (347) 228-66-20 iconИмени
...

Г. Н. Зверев, д т. н., проф каф компьютерной математики, тел. (347) 228-66-20 iconКонкурсная документация
Новосибирской области (Региональным оператором) при проведении настоящего открытого конкурса является департамент энергетики, жилищного...

Вы можете разместить ссылку на наш сайт:


Все бланки и формы на filling-form.ru




При копировании материала укажите ссылку © 2019
контакты
filling-form.ru

Поиск