Поняти е информации. Классификация информации


НазваниеПоняти е информации. Классификация информации
страница1/14
ТипДокументы
filling-form.ru > Туризм > Документы
  1   2   3   4   5   6   7   8   9   ...   14

  1. Понятие информации. Классификация информации.

"Информация" (от лат. informatio – разъяснение, изложение, осведомленность) Некоторая совокупность сведений (сообщений), определяющих меру наших знаний о тех или иных событиях, явлениях, фактах и их взаимосвязи.

Информация –особая форма существования материи. Подобно веществу и энергии, информацию можно собирать, обрабатывать, хранить, изменять форму ее представления.

Особенности

- Информация может возникать и исчезать;

- Можеткопироваться.



- Информация не может быть передана, принята или хранима в чистом виде. Носителем ее является некоторая последовательность сигналов или сообщение.

Сообщение–кодированный эквивалент события, зафиксированный источником информации и выраженный с помощью последовательности условных физических символов (алфавита), образующих некую упорядоченную совокупность. Средствами передачи сообщений являются каналы связи.

Сигнал – это знак, физический процесс или явление, распространяющееся в канале связи и несущее сообщение о каком-либо событии, состоянии объекта наблюдения или контроля, команды управления, указания и т.п.

Классификация:

С точки зрения процесса познания-управления:

- структурная(присуща всем объектам живой и неживой природы естественного и искусственного происхождения)

- оперативная(циркулирует между объектами материального мира и используется в процессах управления в живой природе, технических системах и человеческом обществе)

По способу передачи и восприятия: визуальная, аудиальная, тактильная и т.д.; воспринимаемая оргтехникой и компьютерами - машинно-ориентированная.

По форме представления:

- дискретная форма представления информации - это последовательность символов, характеризующая прерывистую, изменяющуюся величину (количество дорожно-транспортных происшествий, количество тяжких преступлений и т.п.);

- аналоговая или непрерывная форма представления информации - это величина, характеризующая процесс, не имеющий перерывов или промежутков (температура тела человека, скорость автомобиля на определенном участке пути и т.п.).

  1. Свойства информации: основные, дистрибутивные и динамические.

  • объективность. Инф-я объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения.

  • достоверность. Инф-я достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Недостоверной инф-я м.б. по след.причинам:

    • преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;

    • искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.

  • полнота. Инф-ю можно назвать полной, если ее достаточно для понимания и принятия решений.

  • точность определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.

  • актуальность – важность для настоящего времени.

  • полезность (ценность). Может бытьоценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

Динамические свойства информации характеризуют динамику развития информации во времени.

- копирование – размножение информации

- передача от источника к потребителю

- перевод с одного языка на другой

- перенос на другой носитель

- старение (физическое – носителя, моральное – ценностное)
Атрибутивные свойства:

- дискретность (информация состоит из отдельных частей, знаков)

- непрерывность (возможность накапливать информацию)

  1. Собственная информация и её свойства.

Собственная информация - статистическая функция дискретной случайной величины. Она является случайной величиной, которую следует отличать от её среднего значения – информационной энтропии. Собственную информацию можно понимать как «меру неожиданности» события - чем меньше вероятность события, тем больше информации оно содержит.

Для случайной величины X, имеющей конечное число значений:





собственная информация определяется как



Единицы измерения информации зависят от основания логарифма. В случае логарифма с основанием 2 единицей измерения является бит, если используется натуральный логарифм — то нат, если десятичный — то хартли.
Свойства собственной информации
1) Неотрицательность: . I(x) = 0 при p(x) = 1, т.е. предопределенный факт никакой информации не несет.
2) Монотонность: I(x1) > I(x2), если p(x1) < p(x2).
3) Аддитивность: для независимых x1,...,xn справедливо



  1. Энтропия, свойства энтропии.

Информацио́ннаяэнтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии n-ого порядка, см. ниже) встречаются очень редко, то неопределённость ещё более уменьшается.

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Информационная двоичная энтропия для независимых случайных событий x с n возможными состояниями (от 1 до n) рассчитывается по формуле:



Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только i-e состояние.

Шеннон предположил, что прирост информации равен утраченной неопределённости, и задал требования к её измерению:

- мера должна быть непрерывной; т. е. изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение функции;

- в случае, когда все варианты равновероятны, увеличение количества вариантов (букв) должно всегда увеличивать значение функции;

- должна быть возможность сделать выбор в два шага, в которых значение функции конечного результата должно являться суммой функций промежуточных результатов.

Единственная функция, удовлетворяющая этим требованиям, имеет вид:

где K — константа (и в действительности нужна только для выбора единиц измерения).

Для вывода формулы Шеннона необходимо вычислить математическое ожидание «количества информации», содержащегося в цифре из источника информации. Мера энтропии Шеннона выражает неуверенность реализации случайной переменной. Таким образом, энтропия является разницей между информацией, содержащейся в сообщении, и той частью информации, которая точно известна (или хорошо предсказуема) в сообщении. Примером этого является избыточность языка — имеются явные статистические закономерности в появлении букв, пар последовательных букв, троек и т. д.

Свойства:

  1. Неотрицательность: .

  2. Ограниченность: . Равенство, если все элементы из X равновероятны.

  3. Если независимы, то .

  4. Энтропия — выпуклая вверх функция распределения вероятностей элементов.

  5. Если имеют одинаковое распределение вероятностей элементов, то H(X) = H(Y).




  1. Понятие о криптографических методах защиты информации. Модель Шеннона.

Криптогра́фия (от др.-греч. κρυπτός — скрытый и γράφω — пишу) — наука о методах обеспечения конфиденциальности (невозможности прочтения информации посторонним) и аутентичности (целостности и подлинности авторства, а также невозможности отказа от авторства) информации.

Алфавит - конечное множество используемых для кодирования информации знаков.

Текст -упорядоченный набор из элементов алфавита.

Шифрование - преобразовательный процесс: исходный текст, который носит также название открытого текста, заменяется шифрованным текстом.

Дешифрование - обратный шифрованию процесс. На основе ключа шифрованный текст преобразуется в исходный.

Ключ - информация, необходимая для беспрепятственного шифрования и дешифрования текстов.

Криптографическая система представляет собой семейство T преобразований открытого текста. xлены этого семейства индексируются, или обозначаются символом k; параметр k является ключом. Пространство ключей K - это набор возможных значений ключа. Обычно ключ представляет собой последовательный ряд букв алфавита.

Криптостойкостью называется характеристика шифра, определяющая его стойкость к дешифрованию без знания ключа (т.е. криптоанализу).
Примеры методов шифрования:

• Алгоритмы замены или подстановки — символы исходного текста заменяются на символы другого (или того же) алфавита в соответствии с заранее определенной схемой, которая и будет ключом данного шифра.

• Алгоритмы перестановки — символы оригинального текста меняются местами по определенному принципу, являющемуся секретным ключом.

• Алгоритмы гаммирования — символы исходного текста складываются с символами некой случайной последовательности.

• Алгоритмы, основанные на сложных математических преобразованиях исходного текста по некоторой формуле. Многие из них используют нерешенные математические задачи. Например, широко используемый в Интернете алгоритм шифрования RSA основан на свойствах простых чисел.

• Комбинированные методы. Последовательное шифрование исходного текста с помощью двух и более методов.
Теория коммуникации.

Объектами, описываемыми в этой теории, являются сообщение, отправитель и получатель. В 1949 году Шеннон и Уивер предложили математическую модель, описывающую линейную передачу сообщений. Основные объекты коммуникации: источник информации, передатчик, канал передачи, приемник и конечную цель, расположенные в линейной последовательности (линейная модель).

Информация, которая передается, называется сообщением. Сообщение из источника черезпередатчик передается в канал связи, откуда, в свою очередь, поступает к получателю.

Также Шеннон ввел понятия шума (это стали связывать с понятием энтропии и негэнтропии) и избыточности.

Энтропия (шум) связана с теми внешними факторами, которые искажают сообщение, нарушают его целостность и возможность восприятия приемником.

Всякий зашумленный канал связи характеризуется своей предельной скоростью передачи информации (называемой пределом Шеннона). При скоростях передачи выше этого предела неизбежны ошибки в передаваемой информации. Негэнтропия (отрицательная энтропия) связана с теми случаями, когда неполное или искаженное сообщение все же получено приемником благодаря его способности распознать сообщение, несмотря на искажения и недостающую информацию.

Понятие же избыточности, повторения элементов сообщения для предотвращения коммуникативной неудачи, то есть, средства против энтропии, чаще всего демонстрируют именно на примере естественных человеческих языков. Примером также можно считать телеграмму, когда опускается половина слов, но текст при этом остается понятным.


  1. Симметричные блочные криптосистемы

Симметричные криптосистемы (также симметричное шифрование, симметричные шифры) — способ шифрования, в котором для шифрования и расшифровывания применяется один и тот же криптографический ключ. Ключ алгоритма должен сохраняться в секрете обеими сторонами. Алгоритм шифрования выбирается сторонами до начала обмена сообщениями.
Существует множествоалгоритмов симметричных шифров, существенными параметрами которых являются:

  • стойкость

  • длина ключа

  • число раундов

  • длина обрабатываемого блока

  • сложность аппаратной/программной реализации

  • сложность преобразования


Блоковый шифр обрабатывает открытый текст блоками по несколько (как правило 8 или 16) байт за одну итерацию. Если исходный текст (или его остаток) меньше размера блока, перед шифрованием его дополняют.
Преобразование должно использовать следующие принципы:

Рассеивание— то есть изменение любого знака открытого текста или ключа влияет на большое число знаков шифротекста, что скрывает статистические свойства открытого текста;

Перемешивание— использование преобразований, затрудняющих получение статистических зависимостей между шифротектстом и открытым текстом.
Блочный шифр состоит из двух взаимосвязанных алгоритмов: алгоритм шифрования E и алгоритм расшифрования E−1. Входными данными служат блок размером n бит и k-битный ключ. На выходе получается n-битный зашифрованный блок. Для любого фиксированного ключа функция расшифрования является обратной к функции шифрования для любого блока M и ключа K.

  1. Симметричные поточные криптосистемы.

Симметри́чныекриптосисте́мы (также симметричное шифрование, симметричные шифры) — способ шифрования, в котором для шифрования и расшифровывания применяется один и тот же криптографический ключ. Ключ алгоритма должен сохраняться в секрете обеими сторонами. Алгоритм шифрования выбирается сторонами до начала обмена сообщениями.
Пото́чный шифр — это симметричный шифр, в котором каждый символ открытого текста преобразуется в символ шифрованного текста в зависимости не только от используемого ключа, но и от его расположения в потоке открытого текста.

Шеннон доказал абсолютную стойкость шифра Вернама (также известного, как одноразовый блокнот). В шифре Вернама ключ имеет длину, равную длине самого передаваемого сообщения. Ключ используется в качестве гаммы, и если каждый бит ключа выбирается случайно, то вскрыть шифр невозможно (т.к. все возможные открытые тексты будут равновероятны).
Реализация поточного шифра:



Генератор гаммы выдаёт ключевой поток (гамму): . Обозначим поток битов открытого текста . Тогда поток битов шифротекста получается с помощью применения операции XOR: , где .
Расшифрование производится операцией XOR между той же самой гаммой и зашифрованным текстом: .
Очевидно, что если последовательность битов гаммы не имеет периода и выбирается случайно, то взломать шифр невозможно.

Минусы режима шифрования: ключи, сравнимые по длине с передаваемыми сообщениями, трудно использовать на практике. Поэтому обычно применяют ключ меньшей длины (например, 128 бит). С помощью него генерируется псевдослучайная гаммирующая последовательность,псевдослучайность гаммы может быть использована при атаке на поточный шифр.
Для предотвращения потери информации решают проблему синхронизации шифрования и расшифрования текста.Шифрсистемы подразделяются на синхронные (поток ключей генерируется независимо от открытого текста и шифротекста; синхронизация производится вставкой в передаваемое сообщение специальных маркеров) и системы с самосинхронизацией (поток ключей создаётся функцией ключа и фиксированного числа знаков шифротекста).

  1. Режимы использования блочных шифров.

ElectronicCodebook (ECB)

Каждый блок открытого текста заменяется блоком шифротекста. В ГОСТ 28147—89 называется режимом простой замены.

, где i — номера блоков, Ci и Pi — блоки зашифрованного и открытого соответственно, а Ek — функция блочного шифрования. Расшифровка аналогична:


CipherBlockChaining (CBC) (Режим сцепления блоков шифротекста)

Каждый блок открытого текста (кроме первого) побитово складывается по модулю 2 (операция XOR) с предыдущим результатом шифрования. Шифрование:

C0 = IV



где i — номера блоков, IV — вектор инициализации (синхропосылка), Ci и Pi — блоки зашифрованного и открытого текстов соответственно, а Ek — функция блочного шифрования. Расшифровка:



CipherFeedback (CFB)Режим обратной связи по шифротексту

Режим обратной связи по шифротексту, режим гаммирования с обратной связью (англ. CipherFeedbackMode, CFB). Для шифрования следующего блока открытого текста он складывается по модулю 2 с перешифрованным (блочным шифром) результатом шифрования предыдущего блока.

C0 = IV






OutputFeedback (OFB)

Режим (OFB) обратной связи вывода превращает блочный шифр в синхронный шифрпоток: это генерирует ключевые блоки, которые являются результатом сложения с блоками открытого текста, чтобы получить зашифрованный текст. Так же, как с другими шифрами потока, зеркальное отражение в зашифрованном тексте производит зеркально отраженный бит в открытом тексте в том же самом местоположении. Это свойство позволяет многим кодам с исправлением ошибок функционировать как обычно, даже когда исправление ошибок применено перед кодированием.
CounterMode (CTR)

Режим Счетчика (CounterMode-CTR) предполагает возврат на вход соответствующего алгоритма блочного шифрования значения счетчика, накопленного с момента старта. Увеличивая значение счетчика, алгоритм блочного шифрования образует строку битов, которая используется в качестве бегущего ключа шифра Вернама, т.е. к бегущему ключу и блокам исходного сообщения применяются операции XOR.

При отсутствии обратной связи алгоритмы шифрования и расшифровки в режиме CTR могут выполняться параллельно. Это обеспечивает режиму CTR преимущество перед режимами CipherFeedback (CFB) и OutputFeedback (OFB).

  1. Функции хеширования. Криптографические хеш-функции.

Хеширование — преобразование входного массива данных произвольной длины в выходную битовую строку фиксированной длины. Такие преобразования также называются хеш-функциями или функциями свёртки, а их результаты называют хешем, хеш-кодом или дайджестом сообщения (англ. messagedigest).
Существует множество алгоритмов хеширования с различными характеристиками (разрядность, вычислительная сложность, криптостойкость и т. п.). Выбор той или иной хеш-функции определяется спецификой решаемой задачи. Простейшими примерами хеш-функций могут служить контрольная сумма или CRC.
Для того, чтобы хеш-функция H считалась криптографически стойкой, она должна удовлетворять трем основным требованиям, на которых основано большинство применений хеш-функций в криптографии:

  • Необратимость: для заданного значения хеш-функции m должно быть вычислительно неосуществимо найти блок данных X, для которого H(X) = m.

  • Стойкость к коллизиям первого рода: для заданного сообщения M должно быть вычислительно неосуществимо подобрать другое сообщение N, для которого H(N) = H(M).

  • Стойкость к коллизиям второго рода: должно быть вычислительно неосуществимо подобрать пару сообщений , имеющих одинаковый хеш.

Данные требования не являются независимыми:

  • Обратимая функция нестойка к коллизиям первого и второго рода.

  • Функция, нестойкая к коллизиям первого рода, нестойка к коллизиям второго рода; обратное неверно.

Не доказано существование необратимых хеш-функций, для которых вычисление какого-либо прообраза заданного значения хеш-функции теоретически невозможно. Обычно нахождение обратного значения является лишь вычислительно сложной задачей.

Поэтому n-битная хеш-функция считается криптостойкой, если вычислительная сложность нахождения коллизий для неё близка к 2n / 2.
Для криптографических хеш-функций также важно, чтобы при малейшем изменении аргумента значение функции сильно изменялось (лавинный эффект). В частности, значение хеша не должно давать утечки информации даже об отдельных битах аргумента. Это требование является залогом криптостойкости алгоритмов хеширования, хеширующих пользовательский пароль для получения ключа.

  1. Генерация случайных чисел.

Криптографически стойкий генератор псевдослучайных чисел — это генератор псевдослучайных чисел с определенными свойствами, позволяющими использовать его в криптографии. Многие прикладные задачи криптографии требуют случайных чисел, например

  • Генерация ключей

  • Одноразовые случайные числа (англ. Nonces)

  • Одноразовые шифроблокноты

  • Соль (строка случайных данных, которая подается на вход односторонней функции вместе с паролем, результат работы этой функции сохраняется для последующей аутентификации) в схемах цифровой подписи, например ECDSA


Требования к КСГПСЧ можно разделить на 2 группы — во первых, они должны проходить статистические тесты на случайность, во вторых, они должны сохранять непредсказуемость даже если часть их исходного или текущего состояния становится известна криптоаналитику.

  • Каждый КСГПСЧ должен удовлетворять «тесту на следующий бит» (англ. «next-bittest»). Смысл: не должно существовать полиномиального алгоритма, который, зная первые k бит случайной последовательности, сможет предказать k+1 бит с вероятностью более 50 %. Генератор, прошедший «тест на следующий бит», пройдет и любые другие статистические тесты на случайность, выполнимые за полиномиальное время.

  • Каждый КСГПСЧ должен оставаться надежным даже в случае, когда часть или все его состояния стало известно (или было корректно вычислено). Это значит, что не должно быть возможности получить случайную последовательность, созданную генератором, предшествующую получению этого знания криптоаналитиком. Кроме того, если во время работы используется дополнительная энтропия, попытка использовать знание о входных данных должна быть вычислительно невозможна.


Реализации на основе криптографических алгоритмов

  • Безопасный блочный шифр можно преобразовать в КСГПСЧ запустив его в режиме счетчика. Таким образом, выбрав случайный ключ, можно получать следующий случайный блок применяя алгоритм к последовательным натуральным числам. Очевидно, что безопасность такой схемы полностью зависит от секретности ключа.

  • Криптографически стойкая хеш-функция также может быть преобразованна в КСГПСЧ. В таком случае исходное значение счетчика должно оставаться в секрете.

  • Большинство потоковых шифров работают на основе генерации псевдослучайного потока бит, которые некоторым образом комбинируется (почти всегда с помощью операции XOR) с битами открытого текста. Запуск такого шифра на последовательности натуральных чисел даст новую псевдослучайную последовательность, возможно, даже с более длинным периодом. Такой метод безопасен только если в самом потоковом шифре используется надежный КСГПСЧ (что не всегда так). Начальное состояние счетчика должно оставаться секретным.



  1. Понятие об ассиметричных криптографических системах.


Асимметричная криптографическая система - криптосистема, содержащая преобразования (алгоритмы), наборы параметров которых различны и таковы, что по одному из них вычислительно невозможно определить другие параметры.
Криптографическая система с открытым ключом (или Асимметричное шифрованиеАсимметричный шифр) — система шифрования и/или электронной цифровой подписи (ЭЦП), при которой открытый ключ передаётся по открытому (то есть незащищённому, доступному для наблюдения) каналу, и используется для проверки ЭЦП и для шифрования сообщения. Для генерации ЭЦП и для расшифровки сообщения используется секретный ключ.[1] Криптографические системы с открытым ключом в настоящее время широко применяются в различных сетевых протоколах, в частности, в протоколах TLS и его предшественнике SSL (лежащих в основе HTTPS), в SSH. Также используется в PGPS/MIME.

Преимущества


  • Преимущество асимметричных шифров перед симметричными шифрами состоит в отсутствии необходимости предварительной передачи секретного ключа по надёжному каналу.

  • В симметричной криптографии ключ держится в секрете для обеих сторон, а в асимметричной криптосистеме только один секретный.

  • При симметричном шифровании необходимо обновлять ключ после каждого факта передачи, тогда как в асимметричных криптосистемах пару (E,D) можно не менять значительное время.

  • В больших сетях число ключей в асимметричной криптосистеме значительно меньше, чем в симметричной.


Недостатки


  • Преимущество алгоритма симметричного шифрования над несимметричным заключается в том, что в первый относительно легко внести изменения.

  • Хотя сообщения надежно шифруются, но «засвечиваются» получатель и отправитель самим фактом пересылки шифрованного сообщения.

  • Несимметричные алгоритмы используют более длинные ключи, чем симметричные.

  • Процесс шифрования-расшифрования с использованием пары ключей проходит на два-три порядка медленнее, чем шифрование-расшифрование того же текста симметричным алгоритмом.

  • В чистом виде асимметричные криптосистемы требуют существенно больших вычислительных ресурсов

файл:асимметричная криптосистема.png

  1   2   3   4   5   6   7   8   9   ...   14

Похожие:

Поняти е информации. Классификация информации iconЛитература 4 (хорошо)
Понятие информации. Виды информации. Роль информации и живой природе и в жизни людей. Язык как способ представления информации: естественные...

Поняти е информации. Классификация информации icon2. Раздел Классификация документов и документной информации.(2+2пр.=4 часа)
Тема Раздел Классификация документов и документной информации.(2+2пр.=4 часа)

Поняти е информации. Классификация информации icon1. Понятие информации. Виды информации. Роль информации в живой природе...
Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление

Поняти е информации. Классификация информации iconКонфиденциальность гарантируется получателем информации
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации

Поняти е информации. Классификация информации iconКонфиденциальность гарантируется получателем информации
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации

Поняти е информации. Классификация информации iconКонфиденциальность гарантируется получателем информации
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации

Поняти е информации. Классификация информации iconКонфиденциальность гарантируется получателем информации
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации

Поняти е информации. Классификация информации iconКонфиденциальность гарантируется получателем информации
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации

Поняти е информации. Классификация информации iconКонфиденциальность гарантируется получателем информации
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации

Поняти е информации. Классификация информации iconКонфиденциальность гарантируется получателем информации
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации

Вы можете разместить ссылку на наш сайт:


Все бланки и формы на filling-form.ru




При копировании материала укажите ссылку © 2019
контакты
filling-form.ru

Поиск