В юридической деятельности


НазваниеВ юридической деятельности
страница2/29
ТипРеферат
1   2   3   4   5   6   7   8   9   ...   29

Свойства информации

Атрибутивные свойства

Прагматические свойства

Динамические свойства

Рис. 2. Свойства информации

К атрибутивным относятся свойства, без которых информация не может существовать. Например, неотрывность информации от физического носителя и языковая природа информации, дискретность, непрерывность.

Под прагматическими будем понимать те свойства, которые проявляются в процессе использования информации и характеризующие степень ее полезности для пользователя. К прагматическим свойствам информации относятся: смысл и новизна, полезность, ценность, кумулятивность, полнота, достоверность, адекватность и другие.

Динамические свойства характеризуют изменение информации во времени. Например, к динамическим свойствам информации относятся рост информации и старение.

2. Количественная мера информации

Количество информации – число, адекватно характеризующее разнообразие (структурированность, определенность, выбор состояний и т.д.) в оцениваемой системе.

Классическая количественная теория информации состояла и ныне состоит из двух частей: теории преобразования сообщений и сигналов (сущность теории заключается в рассмотрении вопросов кодирования и декодирования информации) и теории передачи сообщений и сигналов без шумов и с шумами в канале связи.

Трактовка информации как меры уменьшения неопределенности некоторого случайного процесса дает возможность, используя математический аппарат теории вероятностей и математической статистики, ввести единицу измерения информации и понятие количественной меры информации. Это весьма важно с точки зрения практического использования для понимания процессов передачи и хранения информации. Необходимо отметить, что вероятность конкретного исхода некоторого события непосредственно связана с количеством информации, содержащемся в сообщении об этом исходе.

Считается, что чем более вероятен конкретный исход события, тем меньше информации несет сообщение об этом исходе. Математическая запись данного тезиса выглядит следующим образом:

(i=1...n), (1)

где Ii – количество информации, содержащееся в сообщении об i-ом исходе события, pi – вероятность исхода i-го события.

Из формулы (1) видно, чем выше значение вероятности pi исхода конкретного события, тем меньше будет величина log2(1/pi) и, следовательно, тем меньшее количество информации будет содержаться в информации об исходе данного события.

Введем в рассмотрение случайную величину I, представляющую собой количество информации, содержащееся в сообщении о конкретном исходе того или иного события. В соответствии с формулой (1) данная случайная величина может быть задана следующей таблицей (табл.1):

Таблица 1.

I

log2 1/p1

log2 1/p2



log2 1/pn

Р

p1

p2



pn

Поскольку случайная величина I может принимать множество значений в зависимости от того или иного исхода события, то для ее числовой характеристики (количества информации I в произвольном сообщении об исходе случайного события) принимается ее математическое ожидание или среднее значение:

(2)

подставляя формулу (1) в формулу (2) получим:

(3)

Данная формула была предложена К. Шенноном для определения количества информации в сообщении об исходе случайного события.

Для определения количества информации, содержащемся в сообщении об исходе случайного события в случае, когда все исходы равновероятны, т.е. р1= р2=…= рn формула (3) принимает вид:

I=log2 n (4)

Эта формула была выведена в 1928 г. американским инженером Р. Хартли и носит его имя.

В качестве единицы количества информации, подсчитываемой по формуле (4), принят 1 бит. Бит – минимально возможное количество информации содержится в сообщении об исходе случайного события с двумя равновероятными исходами. Так, полагая в формуле (4) n=2 и р1=р2=0,5 получим:

I=log2 2=1 (бит).

Проиллюстрируем это на следующих примерах.

Бросание одной монеты. До момента бросания монеты имеется неопределенность исхода данного события, смысл которой заключается в том, что потенциально возможны два варианта исходов бросания, т.е. n=2 (табл. 2):

Таблица 2

Вариант

Исход бросания

Код сообщения

1

«орел»

1

2

«решка»

0


Закодированное информационное сообщение представляет собой последовательность из одного двоичного символа (табл. 2). В этом случае любое из этих двух сообщений (0 или 1) уменьшает неопределенность ровно в два раза. Применяя для данного примера формулу Хартли, получим:

I=log2 2=1 (бит).

Таким образом, сообщение об исходе бросания одной монеты несет в себе количество информации равное 1 бит. Иными словами, 1 бит есть та минимальная порция информации, которая уменьшает исходную неопределенность в два раза в линейном масштабе.

Бросание одновременно трех монет. До момента бросания монет имеется неопределенность исхода данного события, смысл которой заключается в том, что потенциально возможны восемь вариантов исходов бросания, т.е. n=8 (табл. 3).

В этом случае закодированное информационное сообщение представляет собой последовательность из трех двоичных символов (табл. 3). Применяя для рассматриваемого примера формулу (4), получим:

I=log2 8=3 (бит)

Таблица 3

Вариант

1-ая монета

2-ая монета

3-я монета

Код

сообщения

1

«орел»

«орел»

«орел»

111

2

«решка»

«решка»

«решка»

000

3

«орел»

«решка»

«решка»

100

4

«орел»

«орел»

«решка»

110

5

«орел»

«решка»

«орел»

101

6

«решка»

«орел»

«орел»

011

7

«решка»

«решка»

«орел»

001

8

«решка»

«орел»

«решка»

010


Таким образом, любое сообщение об исходе бросания трех монет несет в себе количество информации, равное трем битам, т.е. уменьшает неопределенность об исходе данного события ровно в восемь раз (в линейном масштабе).

Интересно, что согласно классической теории информации, сообщение об исходе бросания одновременно трех монет несет в себе в три раза больше информации (в логарифмическом масштабе), чем сообщение об исходе бросания одной монеты (3 бита и 1 бит).

Следует отметить, что в компьютерной технике при передаче сообщений по линиям связи в качестве случайных событий выступают передаваемые последовательности нулей и единиц, представляющие собой закодированные (т.е. представленные в цифровой форме) текстовые, числовые, графические, звуковые и другие сообщения. Данные последовательности имеют различную (случайную) длину и различный (случайный) характер чередования нулей и единиц.

Если под исходом случайного события понимать конкретный вид последовательности нулей и единиц в передаваемом сообщении, то данные исходы не являются равновероятными и, следовательно, для определения количества содержащейся в них информации нельзя использовать формулу Хартли. Как следствие, в этом случае нельзя использовать в качестве единицы информации 1 бит.

Таким образом, единица измерения 1 бит малопригодна на практике для определения количества информации, содержащейся в сообщении в классическом понимании этого термина (мера уменьшения неопределенности). Гораздо чаще, если не всегда, в компьютерной технике бит выступает в качестве элементарной единицы количества или объема хранимой (или передаваемой) информации безотносительно к ее содержательному смыслу.

Количество информации в 1 бит является слишком малой величиной, поэтому наряду с единицей измерения информации 1 бит, используется более крупные единицы:

1байт=23 бит=8 бит.

1 килобайт (1 Кбайт) = 210 байт = 1024 байт,

1 мегабайт (1 Мбайт) = 210 Кбайт = 1024 Кбайт,

1 гигабайт (1 Гбайт) = 210 Мбайт=1024 Мбайт,

1 терабайт (1 Тбайт) = 210 Гбайт (1024 Гбайт),

1 петабайт (1 Пбайт) = 210 Тбайт (1024 Тбайт).

В компьютерной и телекоммуникационной технике в битах, байтах, килобайтах, мегабайтах и т.д. измеряется также потенциальная информационная емкость оперативной памяти и внешних запоминающих устройств, предназначенных для хранения данных (жесткие диски, дискеты, CD-ROM и т.д.).

3. Понятие энтропии

В 1948 году, исследуя проблему рациональной передачи информации через зашумленный коммуникационный канал, Клод Шеннон предложил революционный вероятностный подход к пониманию коммуникаций и создал первую, истинно математическую, теорию энтропии. Его сенсационные идеи быстро послужили основой разработки двух основных направлений: теории информации, которая использует понятие вероятности и эргодическую теорию для изучения статистических характеристик данных и коммуникационных систем, и теории кодирования, в которой используются главным образом алгебраические и геометрические инструменты для разработки эффективных шифров.

Понятие энтропии, как меры случайности, введено Шенноном в его статье «A Mathematical Theory of Communication», опубликованной в двух частях в Bell System Technical Journal в 1948 году.

Энтропия (от греч. поворот, превращение) – понятие, впервые возникшее в термодинамике как мера необратимого рассеяния энергии; широко применяется в других областях: в статистической механике – как мера вероятности осуществления состояния системы; в теории информации – как мера неопределенности сообщений; в теории вероятностей – как мера неопределенности опыта, испытания с различными исходами; ее альтернативные трактовки имеют глубокую внутреннюю связь: например из вероятностных представлений об информации можно вывести все важнейшие положения статистической механики.

В термодинамике понятие энтропии было введено немецким физиком Р. Клаузисом (1865), когда он показал, что процесс превращения теплоты в работу подчиняется закономерности – второму началу термодинамики, которое формулируется строго математически, если ввести функцию состояния системы – энтропию. Клаузис также показал важность понятия энтропии для анализа необратимых (неравновесных) процессов, если отклонения от термодинамики равновесия невелики и можно ввести представление о локальном термодинамическом равновесии в малых, но еще макроскопических объемах. В целом энтропия неравновесной системы равна сумме энтропий ее частей, находящихся в локальном равновесии.

Статистическая механика связывает энтропию с вероятностью осуществления макроскопического состояния системы знаменитым соотношением Больцмана «энтропия – вероятность»

(5)

где W – термодинамическая вероятность осуществления данного состояния (число способов реализации состояния), а kB – постоянная Больцмана.

В отличие от термодинамики статистическая механика рассматривает специальный класс процессов – флуктуации, при которых система переходит из более вероятных состояний в менее вероятные и вследствие этого ее энтропия уменьшается. Наличие флуктуаций показывает, что закон возрастания энтропии выполняется только статистически: в среднем для большого промежутка времени.

Понятие энтропии распределения в теории вероятностей математически совпадает с понятием информационной энтропии. Из вероятностной трактовки энтропии выводятся основные распределения статистической механики: каноническое распределение Гиббса, которое соответствует максимальному значению информационной энтропии при заданной средней энергии; и большое каноническое распределение Гиббса – при заданной средней энергии и количестве частиц в системе.

Энтропия в теории информации – мера хаотичности информации, неопределенность появления какого-либо символа первичного алфавита. При отсутствии информационных потерь энтропия численно равна количеству информации на символ передаваемого сообщения.

Концепции информации и энтропии имеют глубокие связи друг с другом, но, несмотря на это, разработка теорий в статистической механике и теории информации заняла много лет, чтобы сделать их соответствующими друг другу.

Энтропия независимых случайных событий x с n возможными состояниями (от 1 до n) рассчитывается по формуле:

(6)

Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только i-e состояние.

Таким образом, энтропия события x является суммой с противоположным знаком всех произведений относительных частот появления события i, умноженных на их же двоичные логарифмы. Это определение для дискретных случайных событий можно расширить для функции распределения вероятностей.

Шеннон вывел это определение энтропии из следующих предположений:

мера должна быть непрерывной; т.е. изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение энтропии;

в случае, когда все варианты равновероятны, увеличение количества вариантов должно всегда увеличивать полную энтропию;

должна существовать возможность сделать выбор в два шага, в которых энтропия конечного результата должна будет являться суммой энтропий промежуточных результатов.

Шеннон показал, что любое определение энтропии, удовлетворяющее этим предположениям, должно быть в форме:

(7)

где K – константа (в действительности нужна только для выбора единиц измерения).

Шеннон определил, что измерение энтропии (), применяемое к источнику информации, может определить требования к минимальной пропускной способности канала, требуемой для надежной передачи информации в виде закодированных двоичных чисел. Для вывода формулы Шеннона необходимо вычислить математическое ожидания «количества информации», содержащегося в цифре из источника информации. Мера энтропии Шеннона выражает неуверенность реализации случайной переменной. Таким образом, энтропия является разницей между информацией, содержащейся в сообщении, и той частью информации, которая точно известна (или хорошо предсказуема) в сообщении. Примером этого является избыточность языка – имеются явные статистические закономерности в появлении букв, пар последовательных букв, троек и т.д.

В общем случае b-арная энтропия (где b равно 2, 3 ,...) источника с исходным алфавитом и дискретным распределением вероятности определяется формулой:

(8)

Пример 1. Определить энтропию источника сообщений, если он может выдавать n=5 знаков с вероятностями p1=0,4; p2=0,1; p3=0,2; p4=0,1; p5=0,2. (Сумма всех pi=1).

Решение:



Пример 2. Определить энтропию источника сообщений при условии одинаковой вероятности появления каждого из пяти знаков: p(xi)=0,2.

Решение:



Называя функцию Н «энтропия множества вероятностей», Шеннон комментировал это следующим образом: «Меня больше всего беспокоило, как назвать эту величину. Я думал назвать ее «информацией», но это слово слишком перегружено, поэтому я решил остановиться на «неопределенности». Когда я обсуждал все это с Джоном фон Нейманом, тот предложил лучшую идею. Фон Нейман сказал мне: «Вам следует назвать ее энтропией по двум причинам. Во-первых, ваша функция неопределенности использовалась в статистической механике под этим названием, так что у нее уже есть имя. Во-вторых, и это важнее, никто не знает, что же такое эта энтропия на самом деле, поэтому в споре преимущество всегда будет на вашей стороне».

4. Современные информационные технологи в деятельности МВД России

В Министерстве внутренних дел Российской Федерации вопросами формирования современной информационной и телекоммуникационной инфраструктуры занимается созданный в марте 2011 года Департамент информационных технологий, связи и защиты информации МВД России.

Одной из приоритетных задач данного подразделения является создание на принципиально новом техническом уровне единой системы информационно-аналитического обеспечения деятельности МВД России – ИСОД.

ИСОД должна быть создана на базе единой информационно-телекоммуникационной системы (ЕИТКС). В данную систему уже заложены основы ведомственной инфраструктуры и обеспечен базовый уровень технического оснащения подразделений органов внутренних дел Российской Федерации. Так, в настоящее время более 5000 объектов органов внутренних дел подключены к единой интегрированной мультисервисной сети и обеспечены стандартным комплексом современных услуг связи и доступом к ведомственным информационным системам. Необходимо отметить, что созданию ИСОД послужило ряд причин. Во-первых, это отсутствие единых архитектурных решений и системного подхода к внедрению автоматизированных систем, что привело к тому, что на рабочих местах сотрудников органов внутренних дел Российской Федерации используются разные программы, порой несовместимые между собой. Во-вторых, ЕИТКС создавалась без учета современных тенденций, их использование предполагало установку программ непосредственно на рабочих местах пользователей и серверах локальных сетей, а также создание отдельных центров обработки данных на территориальном и региональном уровнях, что влечет за собой высокую стоимость обслуживания, низкую надежность и недостаточную производительность.

Среди первоочередных задач создания ИСОД является разработка комплексной программы создания ведомственной системы информационно-аналитического обеспечения деятельности органов внутренних дел на 2012-2014 годы; введение в опытную эксплуатацию первой очереди единой информационной системы централизованной обработки данных и реализация на ее базе системы ведомственного электронного документооборота и обмена сообщениями электронной почты.

Кроме того, в настоящее время продолжается разработка типового программно-технического решения на базе единого интегрированного банка данных, которое будет обеспечивать автоматизацию повседневных функциональных обязанностей сотрудников органов внутренних дел. Эта программа должна обеспечить унификацию экранных форм, форм отчетов, интеграцию учетов, доступ сотрудников органов внутренних дел к информации и т.д.

В настоящее время одним из важнейших модернизационных проектов государства является переход с 1 октября 2011 года федеральных органов исполнительной власти на межведомственное электронное взаимодействие при предоставлении государственных услуг (функций). Всего по линии МВД России в Сводный реестр включено 48 государственных услуг (функций), 11 из которых требуют межведомственного электронного взаимодействия.

Еще одним крупным телекоммуникационным проектом, в реализации которого с 2004 года принимает участие Министерство, является создание и развитие государственной системы изготовления, оформления и контроля паспортно – визовых документов нового поколения (Система). В рамках создания системы в 2011 проведены работы по оснащению программно – техническими средствами наиболее значимых объектов первой очереди системы с интенсивным транспортным и пассажирским потоком. В том числе для проведения олимпийских игр 2014 года, летней универсиады 2013 года, саммита АТЭС в 2012 году.

Также продолжается работа по внедрению цифровых технологий в ведомственных сетях радиосвязи. В 2011 году проведены мероприятия по дооснащению цифровых систем подвижной радиосвязи органов внутренних дел в Казани, Владивостоке, Ярославле, а также развертыванию цифровых систем подвижной радиосвязи в Нижнем Новгороде, Самаре, Сочи.

Кроме этого проводятся работы в части, касающейся создания и развития крупных государственных информационных систем – Система-112 и «ГЛОНАСС», а также аппаратно–программных комплексов «Безопасный город».

Система-112 предназначена для обеспечения оказания экстренной помощи населению при угрозах для жизни и здоровья, а также для уменьшения материального ущерба при несчастных случаях, авариях, пожарах, нарушениях общественного порядка и при других чрезвычайных происшествиях и чрезвычайных ситуациях, а также для информационного обеспечения единых дежурно-диспетчерских служб, дежурно-диспетчерских служб экстренных оперативных служб.

Использование «ГЛОНАСС» предоставляет принципиально новые возможности для решения задач в сфере обороны и безопасности, позволяет контролировать маршруты патрулирования в реальном времени, оперативно принимать решения по направлению к месту совершения преступления ближайших нарядов, сопровождать перевозки особо опасных и ценных грузов, а также пассажиров и спецконтингент.

Анализ принимаемых мер по внедрению в охрану общественного порядка АПК «Безопасный город» свидетельствует о повышении эффективности управления силами и средствами, координации деятельности нарядов на территории обслуживания, а также организации мониторинга обстановки, что положительно влияет на оперативную обстановку в целом по стране.

Нормативной базой для проведения крупномасштабных работ по компьютеризации ОВД является Концепция информатизации органов внутренних дел Российской Федерации и внутренних войск МВД России до 2012 года, которая определяет цели, задачи, принципы и основные направления в области информатизации органов внутренних дел и внутренних войск МВД России, учитывает тенденции развития информационных технологий как в Российской Федерации, так и за рубежом, особенности и возможности их применения в деятельности МВД России. Целью Концепции является определение основных направлений совершенствования информационно-аналитического обеспечения деятельности органов внутренних дел Российской Федерации и внутренних войск Министерства внутренних дел Российской Федерации до 2012 года, повышающих эффективность оперативно-служебной, служебно-боевой и административно-хозяйственной деятельности на основе применения современных информационных технологий и систем.

При реализации Концепции используется системный подход к разработке и эффективному использованию информационных технологий и систем в интересах подразделений системы Министерства на основе выработки и реализации единой научно-технической политики. На основе создаваемых автоматизированных информационных систем и специализированных территориально-распределенных автоматизированных систем формируются информационные ресурсы специального назначения, ориентированные на использование в подразделениях органов внутренних дел по направлениям оперативно-служебной деятельности ОВД.

Тема 2. Вычислительные основы информационных технологий
1   2   3   4   5   6   7   8   9   ...   29

Похожие:

В юридической деятельности iconСтатьей 20 Закона определены категории граждан, имеющих право на...
Порядок оказания бесплатной юридической помощи в Управлении Федерального казначейства

В юридической деятельности iconОказание бесплатной юридической помощи в Управлении Федерального...
Российской Федерации, организационно-правовые основы формирования государственной и негосударственной систем бесплатной юридической...

В юридической деятельности iconКто имеет право на получение бесплатной юридической помощи?
Согласно ст. 20 Федерального закона от 21. 11. 2011 n 324-фз "О бесплатной юридической помощи в Российской Федерации" и ст. 4 Закона...

В юридической деятельности iconМ. И. Еникеев юридическая психология. 4
I. Предмет, методы и структура юридической психологии. Краткий очерк исторического развития юридической психологии 4

В юридической деятельности iconАдвокатура и адвокатская деятельность
Оказание юридической помощи гражданам РФ бесплатно. Гарантии предоставления юридической помощи малоимущим. Эксперимент по созданию...

В юридической деятельности iconАдвокатура и адвокатская деятельность
Оказание юридической помощи гражданам РФ бесплатно. Гарантии предоставления юридической помощи малоимущим. Эксперимент по созданию...

В юридической деятельности iconОтчет по практике Название дисциплины
Цель учебной практики – обучение практическим навыкам организационно управленческой деятельности в сфере юридической практики, закрепление,...

В юридической деятельности iconМетодические рекомендации для адвокатов апбо, участвующих в государственной...
Федеральным законом от 21. 11. 2011 №324-фз «Об оказании бесплатной юридической помощи в Российской Федерации», Законом Белгородской...

В юридической деятельности iconМетодические рекомендации по оказанию бесплатной юридической помощи Правовые основания
Статья 18 Закона РФ «О бесплатной юридической помощи в рф» №324-фз от 21 ноября 2011 г

В юридической деятельности iconМетодические рекомендации по оказанию бесплатной юридической помощи Правовые основания
Статья 18 Закона РФ «О бесплатной юридической помощи в рф» №324-фз от 21 ноября 2011 г

Вы можете разместить ссылку на наш сайт:


Все бланки и формы на filling-form.ru




При копировании материала укажите ссылку © 2019
контакты
filling-form.ru

Поиск