МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РФ ТОМСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ СИСТЕМ
УПРАВЛЕНИЯ И РАДИОЭЛЕКТРОНИКИ (ТУСУР) Кафедра автоматизированных систем управления (АСУ)
УТВЕРЖДАЮ
Зав. кафедрой АСУ, профессор
А.М. Кориков
ОСНОВЫ ПРОЕКТИРОВАНИЯ ИНФОРМАЦИОННЫХ СИСТЕМ Учебное пособие
для студентов всех форм обучения специальности 080801 – Прикладная информатика в экономике
Разработчик
доцент кафедры АСУ С.Ю. Золотов
2012
Золотов С.Ю.
Основы проектирования информационных систем: Учебное пособие / Томск, ТУСУР, 2012. – 96 с. В учебном пособии раскрываются теоретические основы проектирования информационных систем на различных стадиях жизненного цикла. Особое внимание уделяется применению методологиям проектирования сложных информационных систем, классификации экономической информации, обзору CASE-средств.
Данное учебное пособие предназначено для студентов всех форм обучения специальности «Прикладная информатика в экономике».
СОДЕРЖАНИЕ 1. Общие сведения об информационных системах ………………………… 4
2. Методологические основы проектирования информационных систем . 18
3. Структурный подход к проектированию информационных систем ….. 35
4. Классификация экономической информации ………………………….. 52
5. Методологии проектирования сложных информационных систем …... 70
6. CASE-средства …………………………………………………………… 78
Литература …………………………………………………………………... 95
1 общие сведения об ИНФОРМАЦИОННых СИСТЕМах
1.1 Понятие информации
Прежде чем говорить об информации, необходимо дать определение энтропии [1].
Энтропия – это мера неопределенности какого-либо опыта, который может иметь разные исходы.
Пусть – некоторый источник информации; – количество событий, которые могут произойти; – вероятность осуществления -го события, причем . В этом случае, величина энтропии рассчитывается по формуле:
.
Основные свойства энтропии:
1. Энтропия есть величина неотрицательна: .
2. Энтропия есть величина ограничена: .
3. Энтропия равна нулю только тогда, когда одна из , а другие вероятности равны нулю.
4. Энтропия достигает своего максимального значения тогда, когда все события равновероятны.
5. Энтропия нескольких независимых источников равна сумме энтропии этих источников.
Принято говорить, что один объект отражает другой или содержит информацию о другом объекте, если состояние одного объекта находится в соответствии с состоянием другого объекта.
Информация есть свойство материи, состоящее в том, что в результате взаимодействия объектов между их состояниями устанавливается определенное соответствие. Чем сильнее выражено это соответствие, тем точнее состояние одного объекта отражает состояние другого объекта, т.е. тем больше информации один объект содержит о другом.
В настоящее время информация рассматривается как фундаментальное свойство материи.
Сигнал – материальный носитель информации, т.е. средство переноса информации в пространстве и во времени. Один и тот же объект может выступать в роли разных сигналов. В качестве сигналов используются не сами объекты, а их состояния.
Сообщение – совокупность знаков или периодических сигналов, содержащих информацию. Одно и тоже сообщение ведет к разной интерпретации, т.е. к разной информации.
Количество информации – это мера уменьшения энтропии объекта после совершения некоторого события. Пусть – энтропия объекта до совершения события, – энтропия объекта после совершения события, таким образом .
Единица информации – 1 бит (bit – BInery digiT).
Один бит – это количество информации, получаемое при осуществлении одного из двух равновероятных событий.
Основные производные единицы количества информации: 1 байт = 8 бит; 1Кбайт = 1024 байт; 1 Мбайт = 1024 Кбайт; 1 Гбайт = 1024 Мбайт; 1 Тбайт = 1024 Гбайт.
|