Хронология развития теории информации

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску

Хронология событий, связанных с теорией информации, сжатием данных, кодами коррекции ошибок и смежных дисциплин:

Вклад отечественных учёных в теорию информации

[править | править код]
  • Понятие марковской цепи принадлежит русскому математику А. А. Маркову, чьи первые статьи по этому вопросу при решении лингвистических проблем были опубликованы в 19061908
  • 1933  — Академиком В. А. Котельниковым в была доказана знаменитая теорема отсчётов.
  • 1947  — В. А. Котельниковым создана теория потенциальной помехоустойчивости. Теория потенциальной помехоустойчивости давала возможность синтеза оптимальных устройств обработки любых сигналов в присутствии помех. Она имела два раздела — теория приёма дискретных и аналоговых сигналов.
  • 19481949 — Основы Информационной теории были заложены американским учёным Клодом Шенноном. В её теоретические разделы внесен вклад советским учёными А. Н. Колмогоровым и А. Я. Хинчиным, а в разделы, соприкасающиеся с применениями, — В. А. Котельниковым, А. А. Харкевичем и др.
  • 1950  — При сравнении конкретных кодов с оптимальными широко используются результаты Р. Р. Варшамова. Интересные новые границы для возможностей исправления ошибок установлены В. И. Левенштейном и В. М. Сидельниковым.
  • 1956  — Были нужны работы математического уровня, закладывающие математический фундамент теории информации. Задача была решена известным докладом А. Н. Колмогорова на сессии АН СССР, посвященной автоматизации производства. Первые пионерские работы А. Я. Хинчина были посвящены доказательству основных теорем теории информации для дискретного случая.
  • 1957  — при исследовании А. Н. Колмогоровым знаменитой проблемы Гильберта о суперпозициях он не только показал возможность представления любой непрерывной функции в виде суперпозиции непрерывных же функций трёх переменных, но и создал метод, позволивший его ученику В. И. Арнольду понизить число переменных до двух и тем самым решить упомянутую проблему.
  • 1958  — А. Н. Колмогоров. Новый метрический инвариант транзитивных динамических систем и автоморфизмов пространств Лебега.— ДАН СССР. Очень важные и плодотворные возможности применения понятия энтропии к проблеме изоморфизма динамических систем.
  • 1958  — Доклад И. М. Гельфанда, А. Н. Колмогорова, А. М. Яглома «Количество информации и энтропия для непрерывных распределений».— В кн.: Тр. III Всесоюз.мат. съезда. М.: Изд-во АН СССР.

Отметим также работы китайского учёного Ху Го Дина, стажировавшегося в то время в Московском университете.

  • 1961  — Ху Го Дин. Три обратные теоремы к теореме Шеннона в теории информации.
  • 1962  — Ху Го Дин. Об информационной устойчивости последовательности каналов. Теория вероятностей и её применения.
  • 1965  — вышел первый номер журнала «Проблемы передачи информации», созданного по инициативе А. А. Харкевича.
  • 1966  — Стратонович Р. Л., Гришанин Б. А. « Ценность информации при невозможности прямого наблюдения оцениваемой случайной величины».
  • 1968  — Стратонович Р. Л., Гришанин Б. А. «Игровые задачи с ограничениями информационного типа».
  • В конце 1960-x Разработана Теория Вапника-Червоненкиса, статистическая теория восстановления зависимостей, разработанная В. Н. Вапником и А. Я. Червоненкисом
  • 1970  — Гоппа В. Д. предложил Коды Гоппа[англ.].
  • 1972  — Солев В. Н. О среднем на единицу времени количестве информации, содержащейся в одном гауссовском стационарном процессе относительно другого.