Наука,
изучающая свойства
знаковых систем
- семиотика.
Название науки - семиотика - произошло от слова "семиос", что по-гречески означает "знак". Знаки появились (и появляются) с возникновением человеческого мышления. Изучать их стали очень и очень давно. Ещё Аристотель и другие древнегреческие философы задумывались о познавательной роли знаков. По мере того, как накапливался опыт человечества, всё шире и глубже становилось его научное проникновение в тайны природы, всё яснее и значительней становилась роль знаков как элементов, несущих ту или иную информацию - всё более осознавалась роль знаков в общественном мироустройстве и познании. Идеи семиотики отчётливо заявили о себе в формальной логике, лингвистике. Основные принципы науки семиотики, сформулированные американским учёным Чарльзом Пирсом, пополнялись и развивались учёными многих стран и многих научных школ.
Разговорный язык.
Химическая символика.
Знаки уличного движения.
Язык дельфинов и пчёл.
Математические формулы.
Азбука морзе.
Искусственные языки машин.
Что объединяет эти столь разные понятия, взятые из столь разных
сфер жизни?
То, что перед вами примеры знаковых систем, что в их состав
входят знаки.
Что же такое знак, что может быть знаком?
Каждый из нас, впервые произнеся слово "мама", подал знак.
А сколько знаков используют дети во время игр? А всем знакомый
школьный звонок? Это знак начала занятий или перемены.
Воистину, на нас обрушивается ливень знаков. Знаками является и язык животных. Вам, наверное, случалось наблюдать, как по-разному кричат куры. Когда наседка созывает своих питомцев, она озабоченно квохчет. Когда надо предупредить об опасности, она поднимает тревожный крик. Учёные насчитали в курином языке около десяти команд-знаков. Своеобразными знаками передают различную, зачастую сложную информацию насекомые. Муравьи, например, разговаривают с помощью языка запахов. А пчёлы в разговоре прибегают к танцу. Танцем пчёлы рассказываают, где сладкий нектар, как найти дорогу к улью и о многом другом. В человеческом обществе знаки вежливости, этикет, различные обряды, одежда (даже детали одежды) - всё это является определёнными знаками, которые могут быть так или иначе восприняты или невосприняты каким-либо человеком-знакораспознавателем.
Знак - это условный сигнал, обозначающий что-то определённое.
Знак - очень широкое понятие.
Знаком может быть и сломанная ветка дерева, и дым от костра, если
договориться, что будут они обозначать: тревогу, знак посадки самолёта,
место встречи.
Можно разделять знаковые системы по их носителям на две категории:
естественные и искусственные.
Говоря философским языком, доля знаковой информации есть во всех предметах,
созданных либо обработанных человеком. Ну а практически, информации без знака
не существует.
Поясним это.
1. Во-первых: заметим, что информация - это искусственное понятие по своей природе,
потому как без человеческого интеллекта нет и знака. Это можно считать
доказательством теоремы. (Классификация по носителю - это другое дело).
2. Во-вторых: естественным знаком или сигналом может считаться достаточно устойчивое явление или
событие, а также процесс или объект (естественный или искусственный).
Искусственным знаком или сигналом может быть всё что угодно. Такая ситуация может привести
к хаосу (всё зависит от твоей фантазии). Искусственный знак - это какой-либо
естественный знак в (искусственной) оболочке. Поэтому начать рассмотрение логично
начать со случая естественного знака, как отправной точки. Если не оговаривается специально,
то будем предполагать именно этот случай.
Таким образом, фон (неустойчивости), на котором выделяется какой-либо знак может считаться шумом (белый шум?).
Например, знак того, что будет дождь - это тёмно-серые облака закрыли всё небо,
ветер. Можно заметить аналогию с причинно-следственной цепочкой, что не лишено смысла.
Также, любопытно, что следуя этим рассуждениям приходится признать, что слово, мысль или любое
действие человека на самом деле являются шумом. И лишь определённый контекст (цепочка знаков, куда
встраивается данный шум) может выделить из этого шума некоторые знаки (информацию).
Внимательно анализируя подобное можно многое понять. Здесь поистине открывается невероятный мир
очевидного.
Модель:
Весь мир - это шум.
Человек выделяет в этом шуме некоторые знаки.
Эти знаки представляют для него информацию.
Это контекст.
Относительно этого контекста строится другая информация.
И так далее ...
Живя в море знаков, мы их порой не замечаем.
Знаки существуют в системе.
Знак всегда служит для хранения или передачи информации.
А поскольку передача информации посредством знаков, а также операции
над ними - важное и необходимое условие работы систем и процессов управления,
семиотика как наука о знаках тесно связана с кибернетикой.
Существует классический способ определения количества информации I в некотором
отрывке текста. Для этого нужно знать вероятности
появления в тексте всех знаков алфавита, затем определить по формуле
количество информации на один
знак (букву) алфавита и умножить на общее количество знаков в тексте
.
Для точного определения значений вероятностей
нужно, как известно,
проанализировать бесконечно длинный текст (цепочку знаков). (Практически, чем больше аналитических
данных, тем точнее результат.)
Такой метод измерения количества информации полностью игнорирует её смысл (содержание)
и полезность (ценность). Количество информации на знак, определённое по формуле
является лишь усреднённой мерой неопределённости появления этого знака.
Таким образом, рассуждая о количестве, содержании и ценности информации, содержащейся
в некотором сообщении, нужно исходить из возможностей соответствующего анализа
знаковых структур.
Вот этими вопросами и занимается семиотика.
Существут также рациональные соображения и подходы к количественному определению
смыслового содержания информации.
Например, Р. Карнап и Бар-Хилел предложили определять величину семантической информации
через так называемую логическую вероятность, которая представляет собой степень подтверждения
той или иной гипотезы. При этом количество семантической информации, содержащейся
в сообщении, возрастает по мере уменьшения степени подтверждения априорной, доопытной гипотезы.
С описанным подходом к определению информационной содержательности сообщений смыкается идея,
основанная на учёте "запаса знаний" получателя или приёмника сообщений, предложенная
Ю.А.Шрейдером. Содержательность одного и того же сообщения оказываются неодинаковыми для
различных получателей и зависят от их уровня знаний, т.е. тезауруса.
Тезаурус - это словарь, в котором указаны не только значения отдельных слов, но и
смысловые связи между ними.
См. также Информация
Тезаурус
Очевидно, что сообщения, которые содержат новую для получателя семантическую информацию,
изменяют, обогащают его тезаурус.
Так же, каждое сообщение, получаемое звеньями управления, можно оценивать с точки зрения
полезности или ценности для выполнения функций управления.
Исходя из этих соображений, А.А.Харкевич предложил определять такую меру ценности
информации
как изменение вероятности достижения цели при получении этой информации
- начальная, до получения информации, вероятность достижения цели
- вероятность достижения цели после получения информации.
Надо заметить, что ключевое понятие здесь вероятность, которое может быть практически низведено до усреднённой меры неопределённости появления того или иного знака. Стратегия строгого количественного определения всегда страдает некачественностью. В стратегии исчисления вероятностей заключена более общая стратегия - стратегия выявления устойчивочтей, т.е. следовательно знаков. Поэтому, именно семиотика может достаточно сильно продвинуть нас в моделировании естественных больших и сложных систем.
См. также
Вероятность и причинность,
Диагностика и случайность