Скачать 1.72 Mb.
|
"Информация" (от лат. informatio – разъяснение, изложение, осведомленность) Некоторая совокупность сведений (сообщений), определяющих меру наших знаний о тех или иных событиях, явлениях, фактах и их взаимосвязи. Информация –особая форма существования материи. Подобно веществу и энергии, информацию можно собирать, обрабатывать, хранить, изменять форму ее представления. Особенности - Информация может возникать и исчезать; - Можеткопироваться. - Информация не может быть передана, принята или хранима в чистом виде. Носителем ее является некоторая последовательность сигналов или сообщение. Сообщение–кодированный эквивалент события, зафиксированный источником информации и выраженный с помощью последовательности условных физических символов (алфавита), образующих некую упорядоченную совокупность. Средствами передачи сообщений являются каналы связи. Сигнал – это знак, физический процесс или явление, распространяющееся в канале связи и несущее сообщение о каком-либо событии, состоянии объекта наблюдения или контроля, команды управления, указания и т.п. Классификация: С точки зрения процесса познания-управления: - структурная(присуща всем объектам живой и неживой природы естественного и искусственного происхождения) - оперативная(циркулирует между объектами материального мира и используется в процессах управления в живой природе, технических системах и человеческом обществе) По способу передачи и восприятия: визуальная, аудиальная, тактильная и т.д.; воспринимаемая оргтехникой и компьютерами - машинно-ориентированная. По форме представления: - дискретная форма представления информации - это последовательность символов, характеризующая прерывистую, изменяющуюся величину (количество дорожно-транспортных происшествий, количество тяжких преступлений и т.п.); - аналоговая или непрерывная форма представления информации - это величина, характеризующая процесс, не имеющий перерывов или промежутков (температура тела человека, скорость автомобиля на определенном участке пути и т.п.).
Динамические свойства информации характеризуют динамику развития информации во времени. - копирование – размножение информации - передача от источника к потребителю - перевод с одного языка на другой - перенос на другой носитель - старение (физическое – носителя, моральное – ценностное) Атрибутивные свойства: - дискретность (информация состоит из отдельных частей, знаков) - непрерывность (возможность накапливать информацию)
Собственная информация - статистическая функция дискретной случайной величины. Она является случайной величиной, которую следует отличать от её среднего значения – информационной энтропии. Собственную информацию можно понимать как «меру неожиданности» события - чем меньше вероятность события, тем больше информации оно содержит. Для случайной величины X, имеющей конечное число значений: собственная информация определяется как Единицы измерения информации зависят от основания логарифма. В случае логарифма с основанием 2 единицей измерения является бит, если используется натуральный логарифм — то нат, если десятичный — то хартли. Свойства собственной информации 1) Неотрицательность: . I(x) = 0 при p(x) = 1, т.е. предопределенный факт никакой информации не несет. 2) Монотонность: I(x1) > I(x2), если p(x1) < p(x2). 3) Аддитивность: для независимых x1,...,xn справедливо
Информацио́ннаяэнтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения. Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв (в этом случае говорят об энтропии n-ого порядка, см. ниже) встречаются очень редко, то неопределённость ещё более уменьшается. Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения. Информационная двоичная энтропия для независимых случайных событий x с n возможными состояниями (от 1 до n) рассчитывается по формуле: Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только i-e состояние. Шеннон предположил, что прирост информации равен утраченной неопределённости, и задал требования к её измерению: - мера должна быть непрерывной; т. е. изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение функции; - в случае, когда все варианты равновероятны, увеличение количества вариантов (букв) должно всегда увеличивать значение функции; - должна быть возможность сделать выбор в два шага, в которых значение функции конечного результата должно являться суммой функций промежуточных результатов. Единственная функция, удовлетворяющая этим требованиям, имеет вид: где K — константа (и в действительности нужна только для выбора единиц измерения). Для вывода формулы Шеннона необходимо вычислить математическое ожидание «количества информации», содержащегося в цифре из источника информации. Мера энтропии Шеннона выражает неуверенность реализации случайной переменной. Таким образом, энтропия является разницей между информацией, содержащейся в сообщении, и той частью информации, которая точно известна (или хорошо предсказуема) в сообщении. Примером этого является избыточность языка — имеются явные статистические закономерности в появлении букв, пар последовательных букв, троек и т. д. Свойства:
Криптогра́фия (от др.-греч. κρυπτός — скрытый и γράφω — пишу) — наука о методах обеспечения конфиденциальности (невозможности прочтения информации посторонним) и аутентичности (целостности и подлинности авторства, а также невозможности отказа от авторства) информации. Алфавит - конечное множество используемых для кодирования информации знаков. Текст -упорядоченный набор из элементов алфавита. Шифрование - преобразовательный процесс: исходный текст, который носит также название открытого текста, заменяется шифрованным текстом. Дешифрование - обратный шифрованию процесс. На основе ключа шифрованный текст преобразуется в исходный. Ключ - информация, необходимая для беспрепятственного шифрования и дешифрования текстов. Криптографическая система представляет собой семейство T преобразований открытого текста. xлены этого семейства индексируются, или обозначаются символом k; параметр k является ключом. Пространство ключей K - это набор возможных значений ключа. Обычно ключ представляет собой последовательный ряд букв алфавита. Криптостойкостью называется характеристика шифра, определяющая его стойкость к дешифрованию без знания ключа (т.е. криптоанализу). Примеры методов шифрования: • Алгоритмы замены или подстановки — символы исходного текста заменяются на символы другого (или того же) алфавита в соответствии с заранее определенной схемой, которая и будет ключом данного шифра. • Алгоритмы перестановки — символы оригинального текста меняются местами по определенному принципу, являющемуся секретным ключом. • Алгоритмы гаммирования — символы исходного текста складываются с символами некой случайной последовательности. • Алгоритмы, основанные на сложных математических преобразованиях исходного текста по некоторой формуле. Многие из них используют нерешенные математические задачи. Например, широко используемый в Интернете алгоритм шифрования RSA основан на свойствах простых чисел. • Комбинированные методы. Последовательное шифрование исходного текста с помощью двух и более методов. Теория коммуникации. Объектами, описываемыми в этой теории, являются сообщение, отправитель и получатель. В 1949 году Шеннон и Уивер предложили математическую модель, описывающую линейную передачу сообщений. Основные объекты коммуникации: источник информации, передатчик, канал передачи, приемник и конечную цель, расположенные в линейной последовательности (линейная модель). Информация, которая передается, называется сообщением. Сообщение из источника черезпередатчик передается в канал связи, откуда, в свою очередь, поступает к получателю. Также Шеннон ввел понятия шума (это стали связывать с понятием энтропии и негэнтропии) и избыточности. Энтропия (шум) связана с теми внешними факторами, которые искажают сообщение, нарушают его целостность и возможность восприятия приемником. Всякий зашумленный канал связи характеризуется своей предельной скоростью передачи информации (называемой пределом Шеннона). При скоростях передачи выше этого предела неизбежны ошибки в передаваемой информации. Негэнтропия (отрицательная энтропия) связана с теми случаями, когда неполное или искаженное сообщение все же получено приемником благодаря его способности распознать сообщение, несмотря на искажения и недостающую информацию. Понятие же избыточности, повторения элементов сообщения для предотвращения коммуникативной неудачи, то есть, средства против энтропии, чаще всего демонстрируют именно на примере естественных человеческих языков. Примером также можно считать телеграмму, когда опускается половина слов, но текст при этом остается понятным.
Симметричные криптосистемы (также симметричное шифрование, симметричные шифры) — способ шифрования, в котором для шифрования и расшифровывания применяется один и тот же криптографический ключ. Ключ алгоритма должен сохраняться в секрете обеими сторонами. Алгоритм шифрования выбирается сторонами до начала обмена сообщениями. Существует множествоалгоритмов симметричных шифров, существенными параметрами которых являются:
Блоковый шифр обрабатывает открытый текст блоками по несколько (как правило 8 или 16) байт за одну итерацию. Если исходный текст (или его остаток) меньше размера блока, перед шифрованием его дополняют. Преобразование должно использовать следующие принципы: Рассеивание— то есть изменение любого знака открытого текста или ключа влияет на большое число знаков шифротекста, что скрывает статистические свойства открытого текста; Перемешивание— использование преобразований, затрудняющих получение статистических зависимостей между шифротектстом и открытым текстом. Блочный шифр состоит из двух взаимосвязанных алгоритмов: алгоритм шифрования E и алгоритм расшифрования E−1. Входными данными служат блок размером n бит и k-битный ключ. На выходе получается n-битный зашифрованный блок. Для любого фиксированного ключа функция расшифрования является обратной к функции шифрования для любого блока M и ключа K.
Симметри́чныекриптосисте́мы (также симметричное шифрование, симметричные шифры) — способ шифрования, в котором для шифрования и расшифровывания применяется один и тот же криптографический ключ. Ключ алгоритма должен сохраняться в секрете обеими сторонами. Алгоритм шифрования выбирается сторонами до начала обмена сообщениями. Пото́чный шифр — это симметричный шифр, в котором каждый символ открытого текста преобразуется в символ шифрованного текста в зависимости не только от используемого ключа, но и от его расположения в потоке открытого текста. Шеннон доказал абсолютную стойкость шифра Вернама (также известного, как одноразовый блокнот). В шифре Вернама ключ имеет длину, равную длине самого передаваемого сообщения. Ключ используется в качестве гаммы, и если каждый бит ключа выбирается случайно, то вскрыть шифр невозможно (т.к. все возможные открытые тексты будут равновероятны). Реализация поточного шифра: Генератор гаммы выдаёт ключевой поток (гамму): . Обозначим поток битов открытого текста . Тогда поток битов шифротекста получается с помощью применения операции XOR: , где . Расшифрование производится операцией XOR между той же самой гаммой и зашифрованным текстом: . Очевидно, что если последовательность битов гаммы не имеет периода и выбирается случайно, то взломать шифр невозможно. Минусы режима шифрования: ключи, сравнимые по длине с передаваемыми сообщениями, трудно использовать на практике. Поэтому обычно применяют ключ меньшей длины (например, 128 бит). С помощью него генерируется псевдослучайная гаммирующая последовательность,псевдослучайность гаммы может быть использована при атаке на поточный шифр. Для предотвращения потери информации решают проблему синхронизации шифрования и расшифрования текста.Шифрсистемы подразделяются на синхронные (поток ключей генерируется независимо от открытого текста и шифротекста; синхронизация производится вставкой в передаваемое сообщение специальных маркеров) и системы с самосинхронизацией (поток ключей создаётся функцией ключа и фиксированного числа знаков шифротекста).
ElectronicCodebook (ECB) Каждый блок открытого текста заменяется блоком шифротекста. В ГОСТ 28147—89 называется режимом простой замены. , где i — номера блоков, Ci и Pi — блоки зашифрованного и открытого соответственно, а Ek — функция блочного шифрования. Расшифровка аналогична: CipherBlockChaining (CBC) (Режим сцепления блоков шифротекста) Каждый блок открытого текста (кроме первого) побитово складывается по модулю 2 (операция XOR) с предыдущим результатом шифрования. Шифрование: C0 = IV где i — номера блоков, IV — вектор инициализации (синхропосылка), Ci и Pi — блоки зашифрованного и открытого текстов соответственно, а Ek — функция блочного шифрования. Расшифровка: CipherFeedback (CFB)Режим обратной связи по шифротексту Режим обратной связи по шифротексту, режим гаммирования с обратной связью (англ. CipherFeedbackMode, CFB). Для шифрования следующего блока открытого текста он складывается по модулю 2 с перешифрованным (блочным шифром) результатом шифрования предыдущего блока. C0 = IV OutputFeedback (OFB) Режим (OFB) обратной связи вывода превращает блочный шифр в синхронный шифрпоток: это генерирует ключевые блоки, которые являются результатом сложения с блоками открытого текста, чтобы получить зашифрованный текст. Так же, как с другими шифрами потока, зеркальное отражение в зашифрованном тексте производит зеркально отраженный бит в открытом тексте в том же самом местоположении. Это свойство позволяет многим кодам с исправлением ошибок функционировать как обычно, даже когда исправление ошибок применено перед кодированием. CounterMode (CTR) Режим Счетчика (CounterMode-CTR) предполагает возврат на вход соответствующего алгоритма блочного шифрования значения счетчика, накопленного с момента старта. Увеличивая значение счетчика, алгоритм блочного шифрования образует строку битов, которая используется в качестве бегущего ключа шифра Вернама, т.е. к бегущему ключу и блокам исходного сообщения применяются операции XOR. При отсутствии обратной связи алгоритмы шифрования и расшифровки в режиме CTR могут выполняться параллельно. Это обеспечивает режиму CTR преимущество перед режимами CipherFeedback (CFB) и OutputFeedback (OFB).
Хеширование — преобразование входного массива данных произвольной длины в выходную битовую строку фиксированной длины. Такие преобразования также называются хеш-функциями или функциями свёртки, а их результаты называют хешем, хеш-кодом или дайджестом сообщения (англ. messagedigest). Существует множество алгоритмов хеширования с различными характеристиками (разрядность, вычислительная сложность, криптостойкость и т. п.). Выбор той или иной хеш-функции определяется спецификой решаемой задачи. Простейшими примерами хеш-функций могут служить контрольная сумма или CRC. Для того, чтобы хеш-функция H считалась криптографически стойкой, она должна удовлетворять трем основным требованиям, на которых основано большинство применений хеш-функций в криптографии:
Данные требования не являются независимыми:
Не доказано существование необратимых хеш-функций, для которых вычисление какого-либо прообраза заданного значения хеш-функции теоретически невозможно. Обычно нахождение обратного значения является лишь вычислительно сложной задачей. Поэтому n-битная хеш-функция считается криптостойкой, если вычислительная сложность нахождения коллизий для неё близка к 2n / 2. Для криптографических хеш-функций также важно, чтобы при малейшем изменении аргумента значение функции сильно изменялось (лавинный эффект). В частности, значение хеша не должно давать утечки информации даже об отдельных битах аргумента. Это требование является залогом криптостойкости алгоритмов хеширования, хеширующих пользовательский пароль для получения ключа.
Криптографически стойкий генератор псевдослучайных чисел — это генератор псевдослучайных чисел с определенными свойствами, позволяющими использовать его в криптографии. Многие прикладные задачи криптографии требуют случайных чисел, например
Требования к КСГПСЧ можно разделить на 2 группы — во первых, они должны проходить статистические тесты на случайность, во вторых, они должны сохранять непредсказуемость даже если часть их исходного или текущего состояния становится известна криптоаналитику.
Реализации на основе криптографических алгоритмов
Асимметричная криптографическая система - криптосистема, содержащая преобразования (алгоритмы), наборы параметров которых различны и таковы, что по одному из них вычислительно невозможно определить другие параметры. Криптографическая система с открытым ключом (или Асимметричное шифрование, Асимметричный шифр) — система шифрования и/или электронной цифровой подписи (ЭЦП), при которой открытый ключ передаётся по открытому (то есть незащищённому, доступному для наблюдения) каналу, и используется для проверки ЭЦП и для шифрования сообщения. Для генерации ЭЦП и для расшифровки сообщения используется секретный ключ.[1] Криптографические системы с открытым ключом в настоящее время широко применяются в различных сетевых протоколах, в частности, в протоколах TLS и его предшественнике SSL (лежащих в основе HTTPS), в SSH. Также используется в PGP, S/MIME. Преимущества
Недостатки
|
Понятие информации. Виды информации. Роль информации и живой природе и в жизни людей. Язык как способ представления информации: естественные... | Тема Раздел Классификация документов и документной информации.(2+2пр.=4 часа) | ||
Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление | Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации | ||
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации | Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации | ||
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации | Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации | ||
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации | Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации |
Поиск Главная страница   Заполнение бланков   Бланки   Договоры   Документы    |