Рефераты

Философия информации и сложных систем

Философия информации и сложных систем

2

Министерство образования Украины

Житомирский инженерно-технологический институт

Кафедра

гуманитарных

наук

Реферат

по философии на тему

Философия информации и сложных систем

Аспирант В. Ю. Винник

Руководитель В. И. Муляр

Содержание

  • Введение 2
  • К общему определению понятия информации 3
    • Количественные теории информации. Мера Шеннона 3
    • Качественный аспект информации 4
    • Информация как функция разнообразия 6
    • Отражение и информация 7
  • Информация и сложные системы 9
    • К определению понятия системы 9
    • Информация в кибернетических системах 11
    • Информация в теоретико-игровых моделях 13
  • Связь информации с законами и категориями диалектики 14
    • Законы диалектики и информация 14
    • Информация и развитие 15
    • Информация, законы природы и причинность 16
    • Пространство-время и информация 18
  • Информация и общество 19
    • Особенности социальной информации 19
    • Научно-техническая информация и познание 21
    • Общество и информатизация 22
  • Заключение 25
  • Литература 25

Введение

Теория информации -- одна из наиболее бурно развивающихся отраслей современного научного знания. За полвека с момента возникновения она насчитывает почти столько же работ, сколько и теория относительности -- один из фундаментальных разделов современной физики. В настоящее время формула количества информации К. Шеннона, наверное, известна не менее, чем формула взаимосвязи массы и энергии А. Эйнштейна. К тому же если теория относительности применяется только физиками, то теория информации проникает во многие науки о живой и неживой природе, обществе и познании, ее используют и физики, и биологи, и экономисты, и ученые многих других специальностей.

Теория информации нужна не только науке, но и производству. Современное производство стало очень сложным; в связи с этим на первый план в нем выдвигаются вопросы организации и управления, основанные на процессах передачи и преобразования информации. Без изучения и широкого использования информации было бы чрезвычайно затруднено дальнейшее преобразование вещества и энергии в процессе производства. Кроме того, совсем недавно появился и в настоящее время бурно развивается принципиально новый сектор производства -- производство не вещественно-энергетических, а чисто информационных товаров.

Естественно, что интенсивное развитие теории информации и ее приложений ставит ряд вопросов философского характера. И прежде всего возникает проблема выявления содержания самого понятия «информация». При анализе этого понятия мы вынуждены вовлекать в рассмотрение материальный субстрат, на котором развертываются процессы движения информации -- информационные системы. Поэтому в обзор философской теории информации входит как неотъемлемая часть изложение основных положений философской теории систем.

Структура изложения такова. Сначала описан ряд частных теорий информации, обладающих весьма ограниченной областью применения, но дающих хорошие результаты для определенных классов явлений. Каждая из этих теорий сама по себе связана с теми или иными философскими обобщениями и потому их рассмотрение имеет непосредственное отношение к теме реферата. Далее раскрывается связь понятия информации с философскими категориями различия и отражения. Определение информации, получаемое на этом пути, принимается в качестве наиболее общего и используется всюду в оставшейся части.

Второй раздел посвящен системам и информационным процессам в них. Дано общее определение системы и уточнены отдельные аспекты этого понятия. Отдельно рассмотрен класс систем, имеющий особую важность, -- сложные самоуправляемые (кибернетические) системы.

В третьем разделе описана связь понятия информации с законами и категориями диалектики. Особое внимание уделено категориям причинности, пространства, времени и развития.

Наиболее сложным из известных систем являются человеческое общество. Чрезвычайно сложны и информационные процессы, протекающие в нем. В последнем разделе рассматривается социальная информация вообще и такой особый вид ее, как научная информация. Наконец, сказано о некоторых проблемах, специфических для современного общества и связанных с бурным развитием устройств обработки информации.

К общему определению понятия информации

Количественные теории информации. Мера Шеннона

До эпохи интенсивного развития систем связи и до возникновения кибернетики понятие информации считалось интуитивно понятным и не нуждающимся в точных определениях, а тем более в философском анализе. История учений об информации начиналась с разработки ее количественного аспекта, что диктовалось потребностями радио- и телефонной связи. При этом любая количественная теория неизбежно была связана с попыткой дать то или иное общее определение. Каждой формуле количества информации соответствовал свой взгляд на ее сущность.

Наиболее разработанной является статистическая теория информации [А11], [Б11], возникшая на базе теоретико-вероятностных подходов и связанная с определением информации как снятой неопределенности.

В задачах теории связи рассматривается система, состоящая из источника информации, приемника и расположенного между ними канала связи. Существенно, что для получателя единственным способом получения информации является считывание сообщения из канала связи. Иными словами, приемная сторона не может достоверно предугадать следующее сообщение. Так в рассмотрение вводится понятие неопределенности, играющее в теории фундаментальную роль. До приема сообщения у приемника существует неопределенность (незнание) относительно того, какое сообщение придет следующим. Акт приема сообщения снимает данную неопределенность. Если известно, что в канале всязи отсутствуют помехи, то неопределенность снимается полностью. В противном случае неопределенность устраняется лишь частично, так как у приемной стороны остается еще неопределенность (сомнение) относительно того, не является ли принятое сообщение результатом искажения.

Таким образом, неопределенность, снимаемая в результате приема сообщения, отождествляется с информацией. Такое определение весьма близко к житейскому пониманию: информацией мы, как правило, склонны считать то, что для нас еще не известно, ново, то, что уменьшает наше незнание. Например, пусть нас интересует вопрос, прибыл ли поезд. При этом у нас нет никаких оснований для предположения, что он действительно прибыл, так же как и для противоположного предположения. Равновероятность этих двух возможностей означает максимальную неопределенность выбора. Позвонив на вокзал по телефону, и получив ответ на интересующий нас вопрос, мы тем самым устраним неопределенность до нуля. Заметим, что как положительный, так и отрицательный ответ (ввиду их равновероятности) устраняют неопределенность в равной мере. Устранение неопределенности выбора из двух равновероятных возможностей соответствует одному биту информации.

Рассмотрим теперь другую ситуацию, аналогичную первой во всем, кроме того, что мы заранее на 90% уверены в том, что поезд еще не пришел, и лишь 10% оставляем на долю сомнения. Получив по телефону ответ «поезд не пришел», мы не узнаем почти ничего нового: мы и так были заранее подготовлены к такому исходу. Поэтому есть основание считать, что получено мене 1 бита информации. Напротив, получив неожиданный ответ, то есть ответ с большей неопределенностью, мы получаем более 1 бита информации.

Количественным выражением неформального понятия «неопределенность» служит известная и с успехом применяемая мера Шеннона. Пусть всего возможны типов сообщений, причем для каждого типа сообщения априори известна его вероятность . Неопределенность отдельного типа сообщения выражается формулой . Эта формула полностью удовлетворяет рассмотренному выше требованию, так как для более вероятных событий, , она дает малую неопределенность и, наоборот, для маловероятных событий () получаем возрастающую неопределенность . В частности, событие, которое с полной достоверностью может быть предсказано заранее () не несет никакой информации ().

Теперь для определения средней неопределенности одного акта приема сообщения нужно лишь усреднить индивидуальные неопределенности по множеству типов сообщений:

Формула Шеннона совпадает по виду с формулой Больцмана для статистического определения энтропии, взятой с обратным знаком [А2]. В термодинамике энтропия служит мерой хаотичности, беспорядка в системе. Таким образом, информация, будучи отрицательной энтропией (негэнтропией) может рассматриваться как вклад в упорядочение системы.

Развитие статистической теории информации привело к следующим результатам. Во-первых, стало возможным строгое количественное исследование информационных процессов. Во-вторых, был расширен объем понятия информации, так как статистическая теория полностью отвлекается от двух высших семиотических аспектов информации: семантичиского (смыслового) и прагматического (ценностного). С позиций этой теории информацию несет не только человеческая речь, но и любые объекты и процессы, которые подчиняются статистическим закономерностям.

Далее, статистический подход позволил выявить фундаментальную связь информационных процессов и термодинамики. Знак «минус» в формуле Шеннона однозначно указывает на то, что информационные процессы в известном смысле противоположны естественным термодинамическим процессам, ведущим, как известно, к деградации. Статистическая теория прямо связывает информацию с процессом превращения возможности в действительность, случайности в необходимость, что уже дает основание для философского анализа. Наконец, в рамках статистического подхода было получено первое определение информации, удовлетворительное с философской точки зрения: информация есть устраненная неопределеность.

Вместе с тем, статистическая теория обладает и существенными недостатками, которые являются продолжением ее достоинств. Во-первых, информация связывается лишь со случайными процессами, подчиняющимися вероятностным законам. Статистическая теория утверждает, что информационные процессы не происходят в однозначно детерминиованных системах. В частности, компьютер, выполняющий определенную программу и функционирующий по законам необходимости, оказывается, согласно статистической теории, неинформационной системой, а игральная кость -- информационной. Во-вторых, отвлечение от осмысленности и полезности информации, вполне уместное при анализе систем связи, уже не может нас удовлетворить, если речь идет о живых системах, о человеке и обществе. Эти и другие неадекватности заставляют искать иные, более общие определения информации. Это, конечно, означает не отказ от статистической теории, а лишь четкое определение области ее применимости.

Характерной особенностью статистической теории является то, что в качестве математического средства формализации понятия неопределенности была выбрана вероятность. Однако понятие неопределенности в общем случае оказывается шире понятия вероятности, а статистическая теория не может правильно описывать те процессы снятия неопределенности, которые к вероятности не сводятся. Действительно, пусть имеется множество элементов, из которых осуществляется выбор. Выбор может происходить и по заранее заданному закону (детерминированному алгоритму), неизвестному познающему субъекту. В этом случае у субъекта существует неопределенность относительно данного закона, однако эта неопределенность имеет невероятностную природу. Даже если к такому случаю удастся применить статистическую теорию, это будет искусственный прием, искажающий внутреннюю логику и сущность познаваемого процесса. Это есть ни что иное, как втискивание реальной ситуации в прокрустово ложе готовой теории вместо того, чтобы разработать теорию, адекватную своему предмету.

Невероятностные теории, относящиеся к качественному аспекту информации, будут рассмотрены ниже. Здесь же упомянем одну из наиболее известных невероятностных количественных теорий -- алгоритмический подход А. Н. Колмогорова. В основе подхода лежит тот факт, что количество информации, заключенной в объекте нас чаще всего интересует не само по себе (абсолютное количество информации), а относительно определенного объекта , то есть взаимное, относительное количество информации. Количество информации по А. Н. Колмогорову -- это сложность объекта относительно объекта , данного в качестве строительного материала. А именно, количество информации измеряется как наименьшая длина алгоритма, строящего объект из объекта . Алгоритмический подход связан с конструктивным направлением в математике.

Качественный аспект информации

Теории, имеющие дело с «чистым» количеством информации, по необходимости ограничиваются синтаксическим аспектом -- низшим в тройке семиотических характеристик. Однако информация имеет еще и качественную сторону (вернее, стороны), некоторые из которых успешно формализуются и изучаются средставми математики. В частности, для некоторых качественных характеристик информации получены количественные выражения.

Наиболее простая теория, имеющая отношение к качеству информации -- это теория кодирования. Данное направление развивалось в тесной связи со статистической теорией, но отнюдь не сводится к ней. Для теории кодирования характерно использование не вероятностных, а алгебраических методов.

Понятие кодирования охватывает такие процессы, как перевод предложения с одного естественного языка на другой, представление текста в памяти компьютера, где каждой букве ставится в соответствие числовое обозначение, переход от «человеческого» алфавита к азбуке Морзе и обратно и т. д. Система правил, позволяющая переводить сообщение из одной формы представления в другую, называется кодом.

В процессе кодирования форма представления информации, вид сообщения, количество символов, используемых для его записи, и другие характеристики могут существенно меняться. Однако, и это главное, содержание сообщения остается неизменным. Следовательно, от перекодирования не изменяется неопределенность, устраняемая сообщением у субъекта. Таким образом, кодирование изменяет качественную природу носителя информации и количественные характеристики формы представления сообщения, но не изменяет количество и качество информационного содержания сообщения. Как видно, теория кодирования, хотя и имеет определенное отношение к качественному аспекту информации, все же не выходит за пределы синтаксического уровня.

В человеческом общении особую роль играет смысл информации, то есть семантический аспект. Одна из известных семантических теорий -- теория Р. Карнапа и Й. Бар-Хиллела [А11], использующая аппарат символической логики. По существу, каждому предложению, выражающему законченную мысль, ставится в соответствие его вероятность (мера истинности). Когда из более простых суждений образуются более сложные, вероятность последнего вычисляется по определенным правилам исходя из вероятностей исходных суждений. Таким образом, теория Карнапа -- Бар-Хиллела основывается на вероятностной логике.

Допустим, имеется начальное достоверное знание о мире , и пусть -- гипотеза. Методы вероятностной логики позволяют вычислить степень новизны гипотезы по сравнению с начальным знанием -- . Степень новизны тем больше, чем меньше данная гипотеза следует из установленных фактов. Очевидно, если сбъекту будет сообщена новая информация, никак не следующая из имеющегося у него запаса знаний, то субъект получит большое количество информации. Наоборот, если то, что субъекту сообщено, и без того следует из известных фактов, то никакой новой информации субъект не получает. На основании этого в теории Карнапа -- Бар-Хиллела степень новизны сообщения и считается количеством семантической информации.

С точки зрения данной семантической теории высказывание «На Марсе есть жизнь» содержит немалое количество информации, ибо эта гипотеза не подтверждена имеющимися экспериментальными данными. В то же время высказывание «На Земле есть жизнь» оказывается лишенным семантической информации, ибо это достоверное знание. Хотя положение, лежащее в основе теории, согласуется со здравым смыслом, последовательное проведение такой точки зрения, очевидно, должно приводить к неадекватностям.

Другой подход к формализации семантического аспекта был предложен Ю. А. Шрейдером. В его модели информацией обладают не только гипотезы, но вообще любые сведения, которые изменяют запас знаний (тезаурус) приемника информации. В общем случае семантический аспект выражает отношение между информацией как компонентом отражения и отражаемым объектом, который играет роль передатчика информации. В модели Ю. А. Шрейдера количество семантической информации, содержащееся, например, в каком-либо тексте, измеряется степенью изменения тезауруса под воздействием этого текста. Это изменение может быть определенным способом измерено количественно. При чтении школьного учебника тезаурус школьника существенно расширяется, -- ученик получает новую информацию. Тезаурус же академика при чтении того же учебника не изменяется, он не получает семантической информации, не изменяет запаса знаний.

В любом случае учет семантического аспекта требует рассмотрения отношения двух сторон: информации и воспринимающего субъекта, так как одна и та же информация для двух разных людей может обладать различным смыслом. Синтаксический аспект информации требует рассмотрения лишь одной стороны, то есть самой информации. Рассмотрим теперь еще одно отношение, трехстороннее -- между информацией, субъектом и целью, которую ставит перед собой субъект. Это отношение соответствует высшему, прагматическому аспекту.

Одним из наиболее важных прагматических свойств информации является ценность. Ценность информации вначале была определена с помощью теоретико-вероятностного подхода (А. А. Харкевич). А именно, если до получения сообщения вероятность достижения цели субъектом была , а после его получения стала , то ценность полученной информации (или прагматическое количество информации) определяется через приращение этой вероятности. Существуют и другие подходы к определению ценности информации, среди которых особое место занимают теоретико-игровые модели.

Важно отметить, что ценность одного и того же сообщения существенно зависит как от субъекта, так и от поставленной цели. Вне связи с целью прагматический аспект информации вообще теряет смысл. Понятие цели обычно характеризует человеческую деятельность, а также может быть применено к животному миру и кибернетичнским устройствам. В неживой природе нет никаких целей, а значит и отсутствует такое свойство информации, как ее ценность.

Учет прагматического аспекта приводит к выводу, что иногда следует рассматривать отрицательные количества информации. Пусть, например, ставится цель: запуск аэростата. Для этого необходимо знать направление ветра. Допустим, нам сообщили, что дует северо-западный ветер. Безусловно, это сообщение уменьшает нашу неопределенность и приближает к достижению цели. Допустим теперь, что сразу же после первого собщения приходит опровержение: дует юго-восточный ветер. Если применить меру Шеннона, то оба сообщения несут одинаковое положительное количество информации. Но с точки зрения прагматической второе сообщение возвращает нас к состоянию первоначальной неопределенности, так как мы уже не знаем, какому из сообщений верить. Наконец, чья-то намеренная дезинформация (которая по Шеннону также доолжна рассматриваться как положительное количество информации) уменьшает наши шансы на достижение цели и потому имеет отрицательную ценность.

Из изложеного можно сделать вывод, что развитие учений об информации происходит одновременно во многих направлениях. Каждое направление фиксирует определенную сторону понятия информации и имеет свою область применимости. При выходе за границы этой области эффективность применения того или иного подхода резко падает и может даже привести к ошибочным выводам. Наилучшего, универсального определения среди перечисленных (и многих других) формальных математических определений информации нет.

Примечательно, что при анализе всех трех семиотических аспектов информации: синтаксического, семантического и прагматического, первыми разрабатывались вероятностные теории, а затем происходил постепенный тход от вероятностных моделей. Тем самым само понятие информации освобождалось от слишком узких вероятностных представлений.

Количественные меры информации выступают как наиболее простой уровень научного знания об информации. После овладения количественными методами неизбежен подъем на следующую ступень -- постижение глубокой сущности информации. Из приведенного далеко не полного перечня несводимых друг к другу частных теорий информации обнаруживается многогранность и сложность понятия информации. В связи с этим возникает вопрос о наиболее общем определении информации, не специально-научном, а философском, которое бы не противоречило ни одной из существующих частных теорий и содержало бы их в себе в виде частных случаев.

Информация как функция разнообразия

В основе более широкого подхода к определению понятия информации лежит представление о тесной связи информации и разнообразия. Данная точка зрения является в настоящее время наиболее широко распространенной и аргументированной [А6]. Согласно этой концепци природа информации заключается в разнообразии, а количество информации выражает количество разнообразия.

Концепция разнообразия хорошо согласуется со всеми упоминавшимися ранее теориями информации. Так, в статистической теории рассматривается разнообразие сообщений, а устранение неопределенности можно представить как ограничение разнообразия возможностей до одной реализовавшейся действительности. Рассмотрим пример. Пусть дано множество, состоящее из 10 различных элементов, то есть множество, обладающее большим внутренним разнообразием. Выбор одного, заранее не указанного, элемента, говоря языком статистической теории, устраняет неопределенность . Если же совокупность однообразна, то есть состоит из совершенно одинаковых элементов, принадлежащих к одному типу, то случайный выбор элемента никакую неопределенность не устраняет: мы и так заранее знаем, к какому типу будет принадлежать выбранный элемент (). Следовательно, чем больше разнообразие элементов, теи больше информации заключено в акте выбора одного из них.

В комбинаторной теории рассматривается разнобразие элементов и разнообразие связей между ними. Алгоритмическое количество информации определяет разнообразие операций алгоритма, необходимых для воссоздания объекта. Очень ярко выражена идея разнообразия в теории семантической информации Ю. А. Шрейдера, где количество семантической информации определяется через степень изменения тезауруса, то есть через изменение разнообразия запаса знаний субъекта. Концепция разнобразия не противоречит и общежитейскому пониманию информации. Ведь мы обычно понимаем под информацией нечто новое, отличное от уже известного.

Таким образом, каждая частная теория информации изучает некоторый специальный вид разнообразия. То, что для одной теори выступает как разнообразие (информация), для другой может быть однообразием, тождеством (отсутствием информации). Так, одно и то же сообщение (однообразие на уровне синтаксиса) может иметь разный смысл для различных субъектов (разнообразие на уровне семантики). Наоборот, два сообщения, совершенно различных с синтаксической точки зрения, могут нести одинаковый смысл. Поэтому синтаксические теории информации имеют дело с иным типом разнообразия, чем семантические.

Методологическая эффективность и перспективность концепции разнообразия, согласно [А11], состоит в следующем. Во-первых, концепции разнообразия дает возможность прийти к тем же результатам в построении той или иной теории, которые достигались исходя из каких-либо других соображений. Она позволяет интерпретировать на единой основе различные теории и концепции информации, чего лишены другие, более узкие трактовки информации. Во-вторых, концепция разнообразия открывает возможность развития теорий информации в соответствии со следующим принципом: каждому виду разнообразия должен соответствовать свой вид информации и наоборот. В-третьих, на ее основе можно проследить связь информации с законами и рядом категорий диалектики.

Определяя информацию как меру разнообразия, мы имеем в виду информацию, взятую в определенный момент времени, в одномоментном срезе. Соответственно, все информационные процессы должны рассматриваться как трансформации, количественные и качественные изменения разнообразия, передача разнообразия во времени и пространстве.

Статистическая теория вводит в рассмотрение процесс ограничения неопределенности, акт выбора. Иными словами, статистическая теория -- это не столько теория информации, сколько теория элементарных форм движения информации. Сама же информация определяется на основе процесса своего движения. То, что концепция разнообразия свободна от акта выбора, является ее существенным достоинством, так как жесткая привязка понятия информации к процессам ее движения сужает область применимости теории.

Подход к определению информации, близкий к концепции разнообразия, имеется и в работах академика В. М. Глушкова. Он характеризует информацию как «меру неоднородности в распределении энергии (или вещества) в пространстве и во времени». «Информация существует постольку, поскольку существуют сами материальные тела и, следовательно, созданные ими неоднородности. Всякая неоднородность несет с собой какую-то информацию». (Цитируется по [А11].)

Данное определение информации имеет одно важное следствие. Разнообразие (различие) объективно свойственно всей материи. Любые два объекта хоть чем-то различаются (иначе это не были бы разные объекты), и сам по себе каждый объект содержит внутренние различия. Следовательно, определяя информацию на основе понятия разнообразия, мы тем самым признаем, что информация является атрибутом материи, носит всеобщих характер, и что информационные процессы свойственны в том числе и неживой природе.

Отражение и информация

Выше понятие информации было определено на основе понятия разнообразия, и, следовательно, на основе категории различия. В настоящем разделе будет показана связь понятия информации и категории отражения ([А6], [А8], [А10], [А11], [Б9], [Б16], [Б17], [Б18]). В частности, определение «информация = разнообразие» оказывается неполным, и для исчерпывающего определения необходимо привлечь отражение.

Рассмотрение содержания категории отражения начнем с понятия взаимодействия и причинности. Воздействие одного тела на другое сопряжено с отражением. При этом объект, являющийся причиной, называется отражаемым, а объект-следствие -- отражающим. Отражение является стороной причинной связи. Из всего содержания понятия взаимодействия извлекается лишь определенный аспект. Под отражением в широком смысле понимается процесс и результат воздействия одной материальной системы на другую, который представляет собой воспроизведение в иной форме особенностей (черт, сторон, структуры) одной системы в особенностях (чертах, структуре) другой системы. В процессе взаимодействия в общем случае возможны и другие изменения, которые не соответствуют особенностям отражаемой системы. Но от этих последних изменений при определении отражения отвлекаются.

Если попытаться раскрыть, в чем именно заключается соответствие между отражающим и отражаемым, то можно прийти к такому определению. Отражение -- это воздействие одной материальной системы на другую, ведущее к установлению определенного (конкретного) тождества между системами, когда внутренние различия одной системы (отражающей) соответствуют внутренним различиям другой системы (отражаемой).

Как следует из приведенного определения, отражение выступает как диалектическая связь тождества и различия двух объектов, причем тождество объектов выражается через различие и благодаря ему. Такое определение дает возможность выразить информационный аспект отражения. А именно, информация есть ни что иное, как содержание отражения. Содержанием отражения являются те изменения, различия в отражающей системе, которые соответствуют внутренним различиям отражаемой системы.

Таким образом, информация с позиций теории отражения может быть представлена как отраженное разнообразие, то разнообразие, которое один объект содержит о другом объекте. Симметричным образом информацию можно определить и как разнообразностный аспект (сторону, компонент) отражения.

Покажем, что все виды движения информации в информационных системах являются, по существу, процессами отражения. Всего есть четыре формы движения информации: восприятие, передача, хранение и переработка, причем восприятие и передача дуальны друг к другу и всегда образуют пару.

Рассмотрим сначала пару восприятие -- передача. Пусть объект А передает информацию, а объект Б ее принимает. Когда говорят о восприятии информации, неявно предполагается, что воспринятая информация будет некоторое время храниться в объекте-приемнике. Иными словами, для того, чтобы информация действительно была воспринята объектом Б, в нем должны произойти какие-то относительно устойчивые изменения, в которых и будет закодирована принятая информация. Далее, поскольку информация исходит от объекта А, она есть ни что иное как часть внутреннего разнообразия этого объекта, оторванная от самого объекта и перенесенная на материальный носитель другой природы. В результате приходим к выводу, что изменения внутреннего разнообразия объекта Б соответствуют какой-то части разнобразия объекта А. Следовательно, в данном случае имеет место отражение объекта А объектом Б. Объект, передающий информацию, выступает в роли отражаемого, а принимающий -- в роли отражающего.

Хранение информации -- это ее передача не в пространстве, а во времени. Отражаемым объектом является запоминающее устройство в начальный момент времени, а отражающим -- то же устройство в последующие моменты. Переработка информации -- это также ее передача (отражение) во времени, однако между процессами хранения и переработки информации как отражательными процессами имеется существенная разница. Хранение предполагает полное (на уровне синтаксиса) совпадение образа и оригинала. При переработке же неизбежно изменяется синтаксическая форма информации, а также могут подвергаться изменениям ее смысл и ценность. Таким образом, между информацией-оригиналом и информацией-образом имеет место более высокий тип тождества, чем в случае хранения, -- генетическое тождество.

В большинстве случаев в реальном процессе отражения передача информации от отражающего объекта к отражаемому происходит в форме сигнала. Следовательно, для того чтобы осуществился процесс отражения, кроме отражаемого и отражающего объектов, необходим третий компонент -- среда, передающая информацию, закодированную в форме сигнала. В теории связи под сигналом понимают любой процесс или объект, при помощи которого можно передавать информацию, кодировать различия. Те свойства сигналов, которые не изменяются (или от изменения которых отвлекаются), -- не несут информации, для воспринимающего объекта они тождественны, лишены внутренних различий. Те же свойства сигналов, которые могут передавать различия, изменяются соответственно изменению (различиям) передающего (отражаемого) объекта.

Сигналы и соответствующие им процессы отражения можно разделить на четыре типа: сигналы в неживой, живой природе, обществе и технике. В неживой природе сигнальный характер взаимодействий не используется телами, информационный процесс не выделяется из вещественно-энергетического. Переработка информации связана с соотнесением информации, воспринимаемых различий с объектами, которые передают эти различия в форме сигналов. Такого соотнесения нет в неживой природе, отражение там носит пассивный характер.

В живой природе отражение существует на двух уровнях: допсихическом и психическом. Этим уровням соответствуют две различные формы передачи информации: посредством сигналов-кодов и сигналов-образов. Допсихическому отражению соответствуют сигналы-коды. Кодирование возникло в процессе эволюции как выделение биологическими системами именно информационных (в отличие от вещественно-энергетических) характеристик материи. Примерами кодов могут быть выделяемые животными пахучие вещества, которыми они метят свою территорию. Высокоразвитые животные используют наряду с кодами более совершенные сигналы -- психические образы. Примером может быть отпугивающая поза кошки (выгнутая спина, распушенный хвост, прижатые уши), сопровождаемая шипением или рычанием.

Отличительная особенность трех высших классов отражения состоит в том, что здесь информационное содержание как бы отделяется от своего материального носителя и обретает относительно самостоятельное бытие. Так, работа современных компьютеров сводится к передаче последовательностей электрических импульсов, подчиняющейся определенным правилам. Однако мы все же определяем компьютер не как устройство для передачи электрических импульсов, а как устройство для обработки информации. При этом для нас несущественно, каков материальный носитель информации в компьютере: электричество, свет (оптические компьютеры), сжатый воздух (пневматические вычислительные машины). Более того, в высокоорганизованных системах, как правило, имеются сложные цепи отражения, состоящие из качественно разнородных объектов, отражающих друг друга. Информация (разнообразие) меняет свою форму, проходит через несколько промежуточных носителей, возможно, совершенно различной природы, и, тем не менее, остается собой, то есть сохраняет свое содержание.

В процессе передачи отражения по цепи отражающих друг друга объектов теряется ряд различных особенностей первоначального отражаемого прообраза, утрачивается часть его содержания, а остается лишь то, что можно объективировать, передать. Таким образом, информация выступает как сторона, компонент отражения, его инвариант, который может перекодироваться, передаваться, опредмечиваться и т. д. Категория отражения оказывается шире понятия информации, так как информация -- это лишь один из компонентов отражения. Отражение содержит ряд неинформационных аспектов: модальность, тип сходства образа и оригинала и др. Анализ отражательных процессов приводит к выводу о том, что они зависят от своих материальных носителей по целому ряду характеристик. Между тем, информационное содержание отражения инвариантно по отношению к носителю: все равно, передается информация по проводам, на бумаге или в устной речи.

Рассмотрим с этих позиций процесс передачи информации от человека к человеку. Вначале человек А, отражая некоторый объект М всеми органами чувств, формирует богатый и целостный образ объекта. Этот образ наверняка содержит черты, не сводящиеся к «чистой» информации. Предположим, человек А рассказывает об объекте М человеку Б. При этом происходит кодирование, опредмечивание образа, выделение из него информационного содержания (инварианта), что неизбежно связано с упрощением и обеднением. Получатель Б не только пассивно запоминает рассказ А, а формирует на его основе свой, новый образ, вплетая информацию в среду своих ассоциаций, переживаний и т. д. В результате у двух человек получаются два во многом различных образа. Общее же между этими образами заключается именно в информационном инварианте.

Связь информации с разнообразием и отражением имеет важное методологическое следствие. Каждому виду отражения, так же как и каждому виду разнообразия, должен соответствовать свой вид информации и наоборот. Эта гипотеза нацеливает на поиск соответственных неизвестных компонентов триады «информация -- отражение -- разнообразие», если известен хотя бы один из них.

Выше была изложена концепция, которая, по мнению авторитетных специалистов [А6], является на сегодняшний день наиболее аргументированной и перспективной. Наряду с ней имеется и ряд других точек зрения на связь информации и отражения. Не останавливаясь на них подробно, покажем общую картину, основанную на классификации по двум критериям. Во-первых, имеется спектр точек зрения от простого отождествления информации с отражением до утверждения о возможности существования информационных процессов вне процессов отражения. Во втором случае иногда делается вывод о том, что информация есть более общая категория, чем отражение, и отражение определяется на основе информации.

Следующее разделение проходит по линии между «аспектными» и «видовыми» концепциями. Сторонники первых полагают, что информация входит как компонент, аспект, сторона в любые отражательные процессы. Следствием является признание атрибутивного характера информации. (Таким образом, изложенная выше теория относится к классу аспектных.)

Наоборот, в видовых теориях утверждается, что информация присуща лишь некоторым видам отражения и, по существу, тождественна им. Информация, согласно этой точке зрения, возникает только на уровне жизни, неразрывно связана с управлением, и существует только в единстве всех своих семиотических характеристик: синтаксических, семантических и прагматических (иными словами, то, что лишено полезности и не используется для каких-либо целей, -- не есть информация). Один из выводов видовых теорий состоит в том, что в процессе познания информация не воспринимается человеком из неживой природы (ведь ее там просто нет), а создается в результате взаимодействия органов чувств с отражаемыми объектами. Как отмечено в [А6], предпочтение аспектной концепции должно быть отдано, в частности, потому, что только она позволяет говорить об объективном существовании информации.

Информация и сложные системы

К определению понятия системы

Рассмотренные выше аспекты, стороны понятия информации относятся либо к статической информации, рассматриваемой в определенный момент времени, либо к наиболее примитивным актам ее движения. Анализ же информационных процессов невозможен без привлечения сведений о той среде, материальном субстрате, на котором эти процессы базируются. В самом деле, информация сама по себе не есть материя, это способ организации материальных объектов (например, совокупность состояний всех нейронов в мозгу). Следовательно, любые процессы обработки информации -- это прежде всего процессы, происходящие в каких-то объектах.

Существенно, что эти объекты не могут рассматриваться как неделимые: важно проследить движение информации внутри объекта. Важно также то, что для сколько-нибудь сложных информационных процессов внутреннее устройство объектов, в которых происходят эти процессы, должно быть тоже достаточно сложным. Методологической базой для изучения расчленимых сложных объектов является системно-структурный подход, который в настоящее время приобрел статус общенаучного метода ([А1], [А7], [А8], [А11], [А13], [Б2], [Б4], [Б5], [Б14], [Б19]). Основные понятия системного подхода изложены ниже.

Система есть множество связанных между собой компонентов той или иной природы, упорядоченное по отношениям, обладающим вполне определенными свойствами; это множество характеризуется единством, которое выражается в интегральных свойствах и функциях множества [А8].

Выделим некоторые явные и неявные характеристики систем, заключенные в приведенном определении.

1. Любые системы состоят из исходных единиц -- компонентов. В качестве компонентов системы (в широком смысле) могут рассматриваться объекты, свойства, связи, отношения, состояния, фазы функционирования, стадии развития. В рамках данной системы и на данном уровне абстракции (конкретизации) компоненты представляются как неделимые, целостные и различимые единицы, то есть исследователь абстрагируется от их внутреннего строения, но сохраняет сведения об их эмпирических свойствах.

Объекты, представляющие собой единицы, из которых состоит система, могут быть материальными (например, атомы, составляющие молекулы, клетки, составляющие органы) или идеальными (например, различные виды числа составляют элементы теоретической системы, называемой теорией чисел).

Свойства системы, специфичные для данного класса объектов могут стать компонентами системного анализа. Например, свойствами термодинамической системы могут быть температура, давление, объем, а напряженность поля, диэлектрическая проницаемость среды поляризация диэлектрика суть свойства электростатических систем. Свойства могут быть как изменяющимися, так и неизменными при данных условиях существования системы. Свойства могут быть внутренними (собственными) и внешними. Собственные свойства зависят только от связей (взаимодействий) внутри системы, это свойства системы «самой по себе». Внешние свойства актуально существуют лишь тогда, когда имеются связи, взаимодействия с внешними объектами (системами).

Связи изучаемого объекта также могут быть компонентами при его системном анализе. Связи имеют вещественно-энергетический, субстанциальный характер. Аналогично свойствам, связи могут быть внутренними и внешними для данной системы. Так, если мы описываем механическое движение тела как динамическую систему, то по отношению к этому телу связи имеют внешний характер. Если же рассмотреть более крупную систему из нескольких взаимодействующих тел, то те же механические связи следует считать внутренними по отношению к этой системе.

Отношения отличаются от связей тем, что не имеют ярко выраженного вещественно-энергетического характера. Тем не менее, их учет важен для понимания той или иной системы. Например, пространственные отношения (выше, ниже, левее, правее), временные (раньше, позже), количественные (меньше, больше).

Состояния и фазы функционирования важны для анализа функциональных, действующих на протяжении длительного времени систем. Сам процесс функционирования (последовательность состояний во времени) познается путем выявления связей и отношений между различными состояниями. Примерами могут быть фазы сердечного ритма, сменяющие друг друга процессы возбуждения и торможения в коре головного мозга и др.

Наконец, этапы, стадии, ступени, уровни развития выступают компонентами генетических систем. Если состояния и фазы функционирования относятся к поведению во времени системы, сохраняющей свою качественную определенность, то смена этапов развития связана с переходом системы в новое качество.

2. Между компонентами множества, образующего систему, существуют системообразующие связи и отношения, благодаря которым реализуется специфическое для системы единство. Система обладает общими функциями, интегральными свойствами и характеристиками, которыми не обладают ни составляющие ее элементы, взятые по отдельности, ни простая «арифметическая сумма» элементов. Иначе говоря, свойства системы в целом неаддитивны по отношению к свойствам ее элементов и подсистем. Существенным показателем внутренней целостности системы является ее автономность, или относительная самостоятельность поведения и существования. По степени автономности можно в известной степени судить об уровне и степени их относительной организованности и самоорганизованности.

3. Существенными характеристикамилюбых систем являются присущие им организация и структура, с которыми тесно связано математическое описание систем.

4. Любая система существует лишь в определенных границах изменений ее свойств, поэтому обычно задаются максимальные и минимальные значения ее переменных.

Страницы: 1, 2, 3


© 2010 Рефераты