Полная версия

Главная arrow Информатика arrow Введение в инфокоммуникационные технологии

  • Увеличить шрифт
  • Уменьшить шрифт


<<   СОДЕРЖАНИЕ ПОСМОТРЕТЬ ОРИГИНАЛ   >>

Этап математизации и формализации знаний Теория информации

Теория информации относится к математике и включает некоторые важные аспекты теории вероятности и математической статистики. Она исследует все действия, которым подвержена информация как материя — хранение, преобразование и передача.

Р. Хартли заложил основы теории информации, определив меру количества информации для некоторых задач. Р. Хартли в своей работе «Передача информации» ввел в теорию передачи информации методологию измерения количества информации и предложил математический аппарат для расчета этого количества. Под информацией он понимал «...группу физических символов — слов, точек, тире и т. п., имеющих по общему соглашению известный смысл для корреспондирующих сторон». Таким образом, Хартли попытался ввести какую-то меру для измерения кодированной информации, а точнее последовательности символов, используемых для кодирования вторичной информации. Еще в 1927 г. Хартли отмечал, что количество информации, заключенной в любом сообщении, тесно связано с количеством возможностей, данным сообщением исключающихся. Фраза «яблоки красные» несет намного больше информации, чем фразы «фрукты красные» или «яблоки цветные», так как первая фраза исключает все фрукты, кроме яблок, и все цвета, кроме красного. Исключение других возможностей повышает информационное содержание.

Наиболее убедительно эти вопросы были разработаны и обобщены американским инженером К. Шенноном в 1948 г., опиравшимся на математический аппарат Р. Хартли. В 1949 г. К. Шеннон и У. Уивер представили формулу вычисления количества информации, в которой информация возрастала с уменьшением вероятности отдельного сообщения. В их представлении информация определяется как мера свободы чьего-либо (или какой-либо системы) выбора в выделении сообщения.

Теория информации основана на вероятностных, статистических закономерностях явлений. Она дает полезный, но не универсальный аппарат. Поэтому множество ситуаций не укладываются в информационную модель Шеннона. Не всегда представляется возможным заранее установить перечень всех состояний системы и вычислить их вероятности. Кроме того, в теории информации рассматривается только формальная сторона сообщения, в то время как смысл его остается в стороне.

Кибернетика

В 1948 г. вышла знаменитая монография Н. Винера «Кибернетика», в которой был провозглашен тезис: «Информацияэто информация, а не материя (вещество) и не энергия». Объединяющим началом для всех видов управления в живой и неживой природе Винер считал информацию, существующую в двух видах. Он же ввел понятие «бит», характеризующее единицу информации.

Н. Винер определил информацию как обозначение содержания, полученного из внешнего мира в процессе приспособления к нему наших чувств. Вводя понятие о семантически значимой информации, он отметил количественное и качественное отличие ЭВМ от человека: машины могут правильно работать в том случае, если получают от человека необходимую им информацию, и в самой точной форме.

 
<<   СОДЕРЖАНИЕ ПОСМОТРЕТЬ ОРИГИНАЛ   >>