АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Информация, ее представление и измерение

Читайте также:
  1. II. Измерение температуры в прямой кишке
  2. Алгебраическое представление двоичных чисел
  3. Безболезненное измерение уровня кислорода в гемоглобине
  4. Безработица : определение, типы, измерение, последствия
  5. Безработица: сущность, виды, измерение и издержки
  6. Билет 32 Инфляция:виды и сушность.Измерение инфляции. Инфляционное ожидание.
  7. В. Измерение скорости.
  8. Ваше представление о себе
  9. Введение в макроэкономику. Измерение результатов
  10. ВВП И ЕГО ИЗМЕРЕНИЕ
  11. Виды авиабилетов. Информация, содержащаяся в авиабилете.
  12. Виды железнодорожных билетов. Информация, содержащаяся в них.

 

Информатика – это наука об информационных процессах, о моделях, об алгоритмах и алгоритмизации, о программах и программировании, об исполнителях алгоритмов и различных исполняющих системах об их использовании в обществе, в природе, в познании [1].

Можно отметить три основные ветви информатики: теоретическую, практическую и техническую. Отметим, что деление информатики как науки и человеческой деятельности на те или иные части зависит от целей, задач, ресурсов рассматриваемой проблемы и часто оно бывает условным.

Теоретическая информатика (brainware, "мозговое" обеспечение) изучает теоретические проблемы информационных сред.

Практическая, прикладная информатика (software, "гибкое", программное обеспечение) изучает практические проблемы информационных сред.

Техническая информатика (hardware, "тяжелое", аппаратное обеспечение) изучает технические проблемы информационных сред.

Пример. Задача построения математической модели прогноза кредитного риска банка – это задача теоретической информатики и экономики.

Построение алгоритма прогноза по этой модели – задача теоретической информатики.

Разработка компьютерной программы (комплекса программ) для прогноза риска – задача практической информатики.

Часто (особенно, в области практической информатики) говорят о предметной информатике, например, о медицинской информатике, физической информатике, компьютерной физике и т.д.

Предметная область науки "информатика" – информационные системы, модели, языки их описания, технологии их актуализации.

Информатика, как и математика, является наукой для описания и исследования проблем других наук. Она помогает прокладывать и усиливать междисциплинарные связи, исследовать проблемы различных наук с помощью своих идей, методов, технологий.

Понятие "информация" имеет различные трактовки в разных предметных областях. Например, информация может пониматься как:

  • абстракция, абстрактная модель рассматриваемой системы (в математике);
  • сигналы для управления;
  • мера хаоса в рассматриваемой системе (в термодинамике);
  • вероятность выбора в рассматриваемой системе (в теории вероятностей);
  • мера разнообразия в рассматриваемой системе (в биологии) и др.

Рассмотрим фундаментальное понятие информатики на основе понятия "алфавит". Дадим формальное определение алфавита.

Алфавит – конечное множество различных знаков, символов, для которых определена операция конкатенации (присоединения символа к символу или цепочке символов); с ее помощью по определенным правилам соединения символов и слов можно получать слова (цепочки знаков) и словосочетания (цепочки слов) в этом алфавите (над этим алфавитом).

Буквой или знаком называется любой элемент x алфавита X, где . Понятие знака неразрывно связано с тем, что им обозначается ("со смыслом"), они вместе могут рассматриваться как пара элементов (x, y), где x – сам знак, а y – обозначаемое этим знаком.

Пример. Примеры алфавитов: множество из десяти цифр, множество из знаков русского языка, точка и тире в азбуке Морзе и др.

Конечная последовательность букв алфавита называется словом в алфавите (или над алфавитом).

Длиной |p| некоторого слова p над алфавитом Х называется число составляющих его символов.

Слово (обозначаемое символом Ø) имеющее нулевую длину, называется пустым словом: |Ø| = 0.

Множество различных слов над алфавитом X обозначим через S(X) и назовем словарным запасом (словарем) алфавита (над алфавитом) X.

В отличие от конечного алфавита, словарный запас может быть и бесконечным.

Слова над некоторым заданным алфавитом определяют сообщения.

Пример. Слова над алфавитом десятичных цифр и знаков арифметических операций – "1256", "23+78", "35–6+89", "4".

В алфавите должен быть определен порядок следования символов алфавита, то есть любой алфавит имеет упорядоченный вид X = {x1, x2, …, xn}.

Таким образом, алфавит должен позволять решать задачу лексикографического (алфавитного) упорядочивания.

Информация – это некоторая упорядоченная последовательность сообщений, имеющих конкретный смысл.

Информация актуализируется с помощью различной формы сообщений – определенного вида сигналов, символов.

Информация по отношению к источнику или приемнику бывает трех типов: входная, выходная и внутренняя.

Информация по отношению к конечному результату бывает исходная, промежуточная и результирующая.

Информация по стадии ее использования бывает первичная и вторичная.

Информация по ее полноте бывает избыточная, достаточная и недостаточная.

Информация по доступу к ней бывает открытая и закрытая.

Есть и другие типы классификации информации.

Основные свойства информации:

  • полнота;
  • актуальность;
  • адекватность;
  • понятность;
  • достоверность;
  • массовость;
  • устойчивость;
  • ценность и др.

Информацию можно трактовать как содержание сообщения.

Сообщение – форма информации.

Любые сообщения измеряются в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах, петабайтах и эксабайтах, а кодируются, например, в компьютере, с помощью алфавита из нулей и единиц, записываются и реализуются в ЭВМ в битах.

Приведем основные соотношения между единицами измерения сообщений:

1 бит (binary digit– двоичное число) = 0 или 1,

1 байт = 8 бит,

1 килобайт (1Кб) = 213 бит,

1 мегабайт (1Мб) = 223 бит,

1 гигабайт (1Гб) = 233 бит,

1 терабайт (1Тб) = 243 бит,

1 петабайт (1Пб) = 253 бит,

1 эксабайт (1Эб) = 263 бит.

Пример. Найти неизвестные х и у, если верны соотношения:

128y (К) = 32x (бит);

2x (М) = 2y (байт).

Решение. Выравниваем единицы измерения информации:

128y (К) =27y (K) = 27y *213(бит)= 27y+13 (бит)= 2(бит);

5х = 7y + 13.

2x (М) = 2х * 223(бит) = 2х+20 (байт) = 2y (байт).

x+ 20 = y.

Отсюда получаем систему двух алгебраических уравнений:

Решая эту систему, окончательно получаем, x = –76,5, у = –56,5.

Для измерения информации используются различные подходы и методы, например, с использованием меры информации по Р. Хартли и К. Шеннону.

Количество информации – число, адекватно характеризующее разнообразие (структурированность, определенность, выбор состояний и т.д.) в оцениваемой системе. Количество информации часто оценивается в битах, причем такая оценка может выражаться и в долях бит (так как речь идет не об измерении или кодировании сообщений).

Мера информации – критерий оценки количества информации. Обычно она задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события.

Рассмотрим различные меры информации. Возьмем меру Р. Хартли. Пусть известны N состояний системы S (N - число опытов с различными, равновозможными, последовательными состояниями системы). Если каждое состояние системы закодировать двоичными кодами, то длину кода d необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N:

Логарифмируя это неравенство, можно записать:

Наименьшее решение этого неравенства или мера разнообразия множества состояний системы задается формулой Р. Хартли:

H = log2N (бит).

Если во множестве X = {x1, x2,..., xn} искать произвольный элемент, то для его нахождения (по Хартли) необходимо иметь не менее log2n (единиц) информации.

Уменьшение Н говорит об уменьшении разнообразия состояний N системы.

Увеличение Н говорит об увеличении разнообразия состояний N системы.

Мера Хартли подходит лишь для идеальных, абстрактных систем, так как в реальных системах состояния системы не равновероятны.

Для таких систем используют более подходящую меру К. Шеннона. Мера Шеннона оценивает информацию отвлеченно от ее смысла:

где n – число состояний системы; рi – вероятность (относительная частота) перехода системы в i-е состояние (сумма всех pi должна равняться 1).

Если все состояния рассматриваемой системы равно возможны, равновероятны, то есть рi = 1/n, то из формулы Шеннона можно получить (как частный случай) формулу Хартли:

I = log2n,

производя нехитрые алгебраические действия:

Пример. Если положение точки в системе из 10 клеток известно, например если точка находится во второй клетке, то есть

рi = 0, i = 1, 3, 4, …, 10, р2 = 1,

то тогда получаем количество информации, равное нулю:

I = log21 = 0.

Введем величину:

fi = –nlog2pi.

Количество информации I можно понимать как среднеарифметическое величин fi, где величину fi можно интерпретировать как информационное содержание символа алфавита с индексом i и величиной pi вероятности появления этого символа в любом сообщении (слове), передающем информацию.

В термодинамике известен так называемый коэффициент Больцмана

k = 1.38 * 10–16 (эрг/град)

и выражение (формула Больцмана) для энтропии или меры хаоса в термодинамической системе:

Сравнивая выражения для I и S, можно заключить, что величину I можно понимать как энтропию из-за нехватки информации в системе (о системе).

Основное функциональное соотношение между энтропией и информацией имеет вид:

I + S(log2e) / k = const.

Из этой формулы следуют важные выводы:

1. Увеличение меры Шеннона свидетельствует об уменьшении энтропии (увеличении порядка) системы;

2. Уменьшение меры Шеннона свидетельствует об увеличении энтропии (увеличении беспорядка) системы.

Положительная сторона формулы Шеннона – ее отвлеченность от смысла информации. Кроме того, в отличие от формулы Хартли, она учитывает различность состояний, что делает ее пригодной для практических вычислений. Основная отрицательная сторона формулы Шеннона – она не распознает различные состояния системы с одинаковой вероятностью.

Методы получения информации можно разбить на три большие группы.

1. Эмпирические методы или методы получения эмпирических данных.

2. Теоретические методы или методы построения различных теорий.

3. Эмпирико-теоретические методы (смешанные) или методы построения теорий на основе полученных эмпирических данных об объекте, процессе, явлении.

Охарактеризуем кратко эмпирические методы.

1. Наблюдение – сбор первичной информации об объекте, процессе, явлении.

2. Сравнение – обнаружение и соотнесение общего и различного.

3. Измерение – поиск с помощью измерительных приборов эмпирических фактов.

4. Эксперимент – преобразование, рассмотрение объекта, процесса, явления с целью выявления каких-то новых свойств.

Кроме классических форм их реализации, в последнее время используются опрос, интервью, тестирование и другие.

Охарактеризуем кратко эмпирико-теоретические методы получения информации:

1. Абстрагирование – выделение наиболее важных для исследования свойств, сторон исследуемого объекта, процесса, явления и игнорирование несущественных и второстепенных.

2. Анализ – разъединение целого на части с целью выявления их связей.

3. Декомпозиция – разъединение целого на части с сохранением их связей с окружением.

4. Синтез – соединение частей в целое с целью выявления их взаимосвязей.

5. Композиция — соединение частей целого с сохранением их взаимосвязей с окружением.

6. Индукция – получение знания о целом по знаниям о частях.

7. Дедукция – получение знания о частях по знаниям о целом.

8. Эвристики, использование эвристических процедур – получение знания о целом по знаниям о частях и по наблюдениям, опыту, интуиции, предвидению.

9. Моделирование (простое моделирование), использование приборов – получение знания о целом или о его частях с помощью модели или приборов.

10. Логический метод – поиск знаний путем воспроизведения частей, связей или элементов в мышлении.

11. Макетирование – получение информации по макету, представлению частей в упрощенном, но целостном виде.

12. Актуализация – получение информации с помощью перевода целого или его частей (а следовательно, и целого) из статического состояния в динамическое состояние.

13. Визуализация – получение информации с помощью наглядного или визуального представления состояний объекта, процесса, явления.

Кроме указанных классических форм реализации теоретико-эмпирических методов часто используются и мониторинг (система наблюдений и анализа состояний), деловые игры и ситуации, экспертные оценки (экспертное оценивание), имитация (подражание) и другие формы.

Информационная система – это система, в которой элементы, структура, цель, ресурсы рассматриваются на информационном уровне.

Информационная среда – это среда (система и ее окружение) из взаимодействующих информационных систем, включая информацию, актуализируемую в этих системах.

Информатику можно определить как науку, изучающую неизменные сущности (инварианты) информационных процессов, которые протекают в различных предметных областях, в обществе, в познании, в природе.


1 | 2 | 3 | 4 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.011 сек.)