Каталог статей из сборников научных конференций и научных журналов- Методологические аспекты формирования понятия информации в науке

Методологические аспекты формирования понятия информации в науке

В. Н. Гончаров

Ставропольский государственный педагогический институт,

г. Ставрополь, Россия

 

Для решения отдельных конкретных задач разра­ботаны определения информации К. Шеннона [30], А. Я. Хинчина [29], Н. Винера [6], Л. Бриллюэна [5], Дж. Неймана [20], Э. Кольмана [1] и ряда других исследователей. Согласно Шеннону, информацию мож­но определить как меру того количества неопределенности, ко­торое уничтожается после получения сообщения. Важность ин­формации, содержащейся в сообщении, не учитывается. Чем больше неопределенностей в равновероятных состояниях системы, тем больше требуется информации для того, чтобы свести ее к определенности. В исследовании (например, экспериментальном) определяемые объекты имеют неодинаковую вероятность. Поэтому задача заключается в оптимальном выборе кратчайшего пути к иско­мому ответу на поставленные вопросы путем узнавания наиболее вероятных состояний системы.

В теории информации учитываются взаимосвязи сиг­налов, то есть свойства совокупностей сообщений. Если все сигналы статически подобны, то наблюдения за одним из них экстра­полируются на всю их совокупность. Л. Бриллюэном предложено несколько иное, отличное от шенноновского, понимание информации, а именно: на основании вто­рого закона термодинамики энтропия системы должна увеличи­ваться или оставаться постоянной. Это означает, что организа­ционные связи между ее элементами должны становиться все более случайными, хаотичными. В случае получения информации неопределенность системы уменьшается, то есть ее энтропия умень­шается. «Убывающая энтропия системы служит началом  самоорганизации в материальных системах» [16, с. 118]. Следовательно, полученная информация может рассмат­риваться как отрицательная энтропия, или негэнтропия. Доба­вочная информация увеличивает негэнтропию системы. Увели­чивая негэнтропию, мы увеличиваем тем самым информацию о системе. Справедливо и обратное заключение: уменьшение негэнтропии системы ведет к потере информации.

Статистическая интерпретация энтропии в термодинамике была перенесена Клодом Шенноном на другие области действи­тельности, где могли происходить случайные процессы, и прежде всего на теорию связи. Вскоре стало понятным, что концепция информации применима не только в теории связи, но и в биоло­гии, психологии, лингвистике и других науках, там, где объек­тивно существуют статистические закономерности. Норберт Ви­нер применил понятие информации к управлению и тем самым дал толчок к повсеместному применению этого понятия во всех областях современной науки. Расширение области применения понятия информации и теории информации К. Шеннона начало приводить к пониманию специфики информации и информацион­ных закономерностей в различных сферах действительности. По мере развития самой математической теории информации поня­тие информации распространялось с дискретных на непрерыв­ные системы, с конечных на бесконечные.

Антропоморфное понимание информации в докибернетический период представляет лишь составную часть того содер­жания, которое вкладывается в этот термин в настоящее время. Следует отметить, что сам тер­мин «информация» понимается разными исследователями далеко не однозначно.

Очень широкий смысл понятию «информация» был придан С. Л. Соболевым, А. Н. Китовым и А. А. Ляпуновым в одной из работ, позитивно освещавших проблемы кибернетики. Столь же широкий «всеобъемлющий» смысл понятия «информация» содержится в работах В. М. Глушкова [9], Н. М. Амосова [2], Ф. П. Тарасенко [26], 3. И. Ровенского, А. И. Уемова, Е. А. Уемовой [23],  Д. А. Гущина [11], И. Б. Новика [21]. А. Н. Медведьев, напротив, сужает это поня­тие до условно-рефлекторной деятельности [19]. К. Шеннон скло­нен истолковывать понятие «информация» как относящееся лишь к техническим средствам связи [31].

Своеобразное понимание информации как объекта рассмот­рения зачастую ограничивается лишь формализованной сторо­ной информации и отмежевывается от анализа тех сторон, кото­рые еще не получили формального описания. Широко распро­страненное сужение понятия информации до ее формализован­ной части находим и в «Кратком философском словаре», где под научным понятием информации берется именно ее формализо­ванная сторона и противопоставляется ее богатому связями оп­ределению, выработанному в докибернетический период. Необ­ходимо отметить, что небольшой области формализованных отношений противостоит огромное количество отношений, под­лежащих формализации, но с трудом поддающихся ей. Это каса­ется также и информации. Исследователи в области кибернетики в качестве конечной цели имеют в виду формализовать или по возможности формализовать все стороны информации. Резуль­таты, достигнутые быстро развивающейся отраслью кибернети­ки – теорией информации, касаются лишь чрезвычайно частных процессов передачи, приема и переработки информации. Можно говорить только о частных разделах этой теории.

Ф. И. Георгиев и Г. Ф. Хрустов [8] рассматривают инфор­мацию как сведения о предметах внешней действительности и разделяют ее на витальную и предметную. Под витальной при этом подразумевается информация о постоянных признаках объ­екта, входящих в сферу биологических потребностей организма, которые замещаются временными сигналами, играющими роль биологически значимых для организма. Предметной называется информация об объективных признаках предметов, выявляемых при соотношении этих предметов друг с другом.

По мнению некоторых исследователей, информация разделя­ется на два более общих вида. У Н. И. Жукова [12] это – информация живой и искусственной природы. У С. Г. Иванова [13] и И. И. Блоха [4] – чело­веческая, осмысленная, и машинная. У В. В. Косолапова [18] – семантическая и техническая. При этом понимается, что техни­ческая (машинная) информация касается непосредственной пе­редачи через канал связи при помощи сигналов, ее можно точно математически выразить, она имеет вполне объективный харак­тер и не имеет непосредственно никакого касательства к чело­веческому сознанию. Это информация, передаваемая техничес­ким математическим устройством или переносимая математическим устройством или нервными волокнами. Семантическая человеческая осмысленная информация касается потребителя, который сообщение истолковывает, понимает и использует.

Некоторые зарубежные авторы связывают понятие информа­ции с религией, используя современный аппарат науки, и в част­ности кибернетики, для доказательства своих идей: в информации усматривается особый нематери­альный принцип действительности, принцип, который объединяет субъективную и объективную области [34]; информация понимается как посредник между сознанием и материей [36]; дается «кибернетическое доказательство бытия божьего», при этом информация – это третья ценность на­ряду с сознанием и материей, а бог представляет тож­дество этих трех ценностей [37].

Рядом исследователей информация трактуется через понятие разнообразия. Впервые подобное толкование находим у У. Росс Эшби [33]. Взаимосвязь информации и разнообразия также отмечает Ст. Бир [3]. Подобное отношение к информа­ции, как к разнообразию, находим у биологов, например у И. И. Шмальгаузена [32]. В философ­ских работах также разрабатывается подобная трактовка. К таковым можно отнести работы П. В. Копнина [17], А. Д. Урсула [27; 28].

В дальнейшем можно отметить некоторый отход от статистическо-вероятностных концепций определения инфор­мации. По мнению А. Н. Колмогорова, «информация по своей природе – не специально вероятностное понятие» [14, с. 35–36]. Еще ранее подобная концепция нашла свое выражение в комби­наторном определении количества информации и ее теоретико-множественном развитии в рамках концепции е-энтропии. А. Н. Колмогоров  отмечает, что комбинаторное опре­деление количества информации как логарифма мощности конечного множества (и как его обобщение – е-энтропия) логи­чески независимо от статистического подхода определения коли­чества информации [15]. В упомянутых двух работах А. Н. Колмого­ров развивает способы математически отличного от статистиче­ского определения количества информации – алгоритмический (на основе рекурсивных функций) и топологический. Можно ука­зать на трактовку понятия информации в рамках не статистиче­ской, а динамической системы, где количество информации опре­деляется при помощи меры множеств [24]. Некоторые исследователи рассматривают аксиоматическое понятие информации как некоторую вещественную функцию на булевых кольцах, не прибегая к помощи вероятной меры, исходя из того, что первичным является понятие, а производным от него – понятие вероятности [35].

Описанные определения понятия информации составляют сущность математической теории информации, или теории «сиг­нальной информации». Эта теория лежит в основе информатики. Но в информатике, кроме количественных характеристик, рас­сматриваются также ее качественные особенности, ее семантиче­ское значение, важность информации для потребителя.

Информация является знанием со всеми присущими ему свойствами: достоверностью, первичностью или вторичностью, соответствием достигнутому научно-техническому уровню. Как знание информация может быть выражена и ассоциативным образом, и термином, и структурно-логическим знаком.

Чувственный аппарат в логической информатике не анали­зируется, но он является средством получения, хранения и вос­произведения знаний.

Понятие информации в этом смысле С. Л. Соболев, А. И. Ки­тов и А. А. Ляпунов описывают так: «Информацией называются сведения о результатах каких-либо событий, которые заранее не были известны... Понятию информации кибернетика придает очень широкий смысл, включая в него как всевозможные внеш­ние данные, которые могут восприниматься или передаваться какой-либо определенной системой, так и данные, которые могут вырабатываться внутри системы... Информацией могут яв­ляться, например, воздействия внешней среды на организм человека и животного; знания и сведения, получаемые челове­ком в процессе обучения; сообщения, предназначенные для пере­дачи с помощью какой-либо линии связи; исходные промежуточ­ные и окончательные данные в вычислительных машинах [25, с. 136]. Но являются ли информация и знание полностью тождественными понятиями? Чтобы ответить на этот вопрос, не­обходимо уточнить круг тех объектов, которые принципиально могут изучаться с помощью понятий «информация» и «знание». Обмен информацией совершается не вообще между материаль­ными телами, а только между теми из них, которые представля­ют систему, обладающую каким-то минимумом организованнос­ти. Информационные процессы всегда связаны с взаимодействием тел, переносом энергии, ее потерей в одном месте и накоплением в другом. Но они не являются ни энергией, ни формой матери­ального движения, аналогичной, скажем, механической или био­логической. Информационность – это такое же свойство матери­альных тел, как их пространственность, бытие, существование. И как атрибут пространственного расположения тел фик­сируется человеком на основании всех известных данных о дей­ствительности, а не каких-то отдельных умозрительных заклю­чений, так и информационность, присущая материи, доказывает­ся всей общественно-исторической практикой. «Информация есть информация, а не материя и не энергия. Тот материализм, который не признает этого, не может быть жизнеспособным в настоящее время» [7, с. 166].

Поскольку это так, то информация – понятие, описывающее один из главнейших атрибутов свойств материи. То, что описы­вается этим понятием, является конкретным содержанием кате­гории отражения в философии. Как известно, от­ражение является всеобщим свойством материальной действи­тельности.

Свойства материи – движение, пространство, время, инфор­мационность – определяются структурой материальных тел. Например, пространство макромира – эвклидово, то есть трех­мерно, пространству Космоса присуща кривизна, оно описывает­ся неэвклидовыми геометриями. Структурные уровни организации материи определяют качественно разные формы информации. Можно говорить об информационности физических, биологиче­ских, социальных и других процессов. В обществе действующим субъектом является че­ловек, наделенный сознанием. Содержанием сознания является совокупность знаний, добытых человеком в процессе познания действительности. Познавательная деятельность, в том числе и научно-исследовательская, представляется процессом получения знания с целью уменьшения энтропии сознания, то есть повышения его организованности. Знание – это инфор­мация, существующая в условиях социальной среды, являющая­ся результатом познания как процесса повышения информаци­онной емкости сознания человека и общества вообще.

Таким образом, можно сказать, что знание – это только та часть информации, которая циркулирует в социальной среде и имеет какой-либо смысл только в ее пределах. Знание, изучаемое мно­гими научными дисциплинами, в информатике исследуется как информационный процесс.

В основании научной информации лежат также другие фун­даментальные, исходные понятия, которые средствами этой тео­рии не определяются. Их достоверность устанавливается прак­тикой информационной деятельности. К таким понятиям можно отнести алфавит, код, сообщение.

Алфавит – это система графических знаков, букв, символов, знаков препинания, которые используются для записи информации как основной формы ее передачи и обмена в об­ществе. Сообщение – это любая часть информации (от одной буквы алфавита до их значительного числа), которой обмениваются люди. Код – это алфавит, специализированный с учетом техниче­ских средств передачи сообщений. Переход от одного алфавита к другому является процессом перекодирования, а специализа­ция алфавита – кодированием сообщения. Сообщение передается в форме определенного кода каналом связи. Канал связи – это совокупность технических средств, при­способленных для передачи кодированных сообщений от источ­ника сообщений к приемнику (получателю) сообщений.

Поскольку источником сообщений является вся человеческая деятельность, то они содержат разнообразнейшую информацию. Информация – это функция состояния любой материальной системы, показатель разнообразия (изменчивости) ее структуры (организации). Чтобы какая-либо система была источником ин­формации, достаточно наличия в ее структуре хотя бы несколь­ких переменных элементов. Канал связи определяется только количественной характеристикой передаваемых сообщений, то есть тем числом, которое соответствует объему сообщений – количе­ству содержащихся в нем букв (знаков) алфавита. Содержа­тельная (качественная) сторона сообщения не оказывает на свойства канала связи никакого влияния. Прием сообщения осуществляет функции получателя ин­формации о предмете (или материальной системе) и ее интер­претации (истолкования или понимания смысла сообщения). Смысл – это все то, что устанавливается интерпретацией полу­ченного сообщения о предмете информации и имеет ценность с точки зрения его получателя.

Одно и то же сообщение может иметь бесконечное количе­ство интерпретаций, а следовательно, и смыслов. Информацию по определенному кругу вопросов, которая на­ходится в любом источнике научной информации, можно раз­делить на сообщения. Возникает вопрос о необходимости уста­новить какую-то среднюю величину сообщения, то есть определить среднее сообщение, так как в противном случае нельзя будет сравнивать отдельные сообщения. Под средним сообщением по­нимается определенное количество информации, одинаковое для всех сообщений.

Научную информацию целесообразно на­капливать только по наиболее ценным источникам информации. Можно, очевидно, говорить о смысловой емкости одного и то­го же понятия, употребляемого в разных теоретических систе­мах, о глубине интерпретации знаков и, вероятно, в зависимости от этого о глубине индексирования терминов. На информацион­ную емкость понятий решающее влияние оказывает контекст, в котором они употребляются. Информация обладает также цен­ностью как средство объяснения действительности, предска­зания получения новых информаци­онных сведений, описания и систематизации этих сведений. В процессе развития знания информационные сведения могут обесцениваться или их ценность может возрастать.

Ценность научной информации тесно связана со шкалой вре­мени и имеет тенденцию с течением времени уменьшаться. Это положение имеет особое значение для тех наук, которые используют методы информатики в качестве приема исследо­вания.

Понятия теории информации используются в физике, химии, биологии, геохимии, геологии как эффективное средство анализа, а также в области общественных наук. Конкретные задачи, стоящие пе­ред исследователями социальных явлений и процессов, и тенден­ции развития информационной ситуации в науке в целом обус­ловливают усиленное внимание к вопросу повышения уровня организации общественно-научных исследований. «Такие исследования ведутся на основе все более широкого методологического и методического инструментария, комплексного подхода с позиций разных наук, так как ясно, что средствами одной лишь статистической теории информации невозможно охватить все многообразие информационных проблем в социальной среде» [10, с. 9].

Практика информационной деятельности в области есте­ственных наук и техники показывает рациональность организа­ции подобного рода деятельности и в области наук общест­венных.

Все более настоятельной становится необходимость функцио­нального разделения общественно-научной исследовательской деятельности с выделением в самостоятельный вид научной ра­боты информационной деятельности. Дифференцирован­ное обслуживание исследователя предусматривает информационный сервис, а это требует предваритель­ного анализа, качественной переработки информационных ма­териалов – составляющих информационного потока. Информационный поток – это упорядоченное множество ин­формационных документов, циркулирующих в информационной системе. Процесс формирования потока является не просто про­цессом накопления. Ему обязательно предшествует отбор наи­более информативных источников, преследующий цели упорядо­чения потока, обслуживающего информационную систему на входе.

Специфика общественных наук и образующих их понятий, обусловливающая характер общественно-научной информации, определяет особенности формирования потоков в области этих наук. Причем процесс формирования информационных потоков в большой степени зависит от степени формализации обществен­но-научной информации.

Информация условно может иметь два состояния: стати­ческое и динамическое. Фиксация информации приводит ее в статическое состояние по отношению к некоторому материально­му носителю, массиву, то есть к окружающей среде. Фиксация ин­формации преследует две цели – сохранение ее на определенное время (память человечества) и последующую передачу ее како­му-то кругу потребителей информации. Информационное взаимодействие людей путем передачи ин­формации является конкрет­ным выражением динамического состояния информации. Поэто­му статическое и динамическое состояния информации являются не взаимоисключающими, а взаимодополняющими понятиями. Динамика информации характерна для всех видов, но содержание информации, средства, формы и методы передачи существенно отличаются друг от друга. Можно выделить две характерные группы: передачу информации без изменения ее содержания и с изменением. Вторая группа представляет сложный интеллектуальный процесс переработки информации.

Первостепенное значение имеет передача информации в пространстве. На этом пути возможна многократная трансформация информации, особенно с использованием технических средств связи. Главным критерием трансформации является надежность (отсутствие потери). Перевод (традиционными методами и машинный) является особым видом трансформации информации. Потеря информации при этом является неже­лательным, но практически (хотя и в незначительных размерах) часто встречающимся случаем.

Для научной информации немаловажным является описание эвристических особен­ностей познавательных форм эмпирического и теоретического знания  факта, системы фактов, гипотезы как совокупнос­ти вероятного значения, теории как множества достоверных знаний. При этом в отличие от логики науки эти формы рас­сматриваются в плане возрастания их эвристичности по мере исторического становления науки. Структура научного знания изучается как система, содержащая в себе аккумулятивный опыт познания действительности. Это придает структурным элемен­там науки эвристические особенности в получении принципиаль­но новой информации. Само научное знание, развиваясь, по­рождает проблемы и служит средством их разрешения. В этом смысле научная теория – всегда метод, путь, способ получения новой информации. Важную роль в формировании информации имеет современный эксперимент. Информационно-логический анализ позволяет изучать термины, различные виды высказы­ваний из терминов, уровни индексирования.

Наряду со структурой научной информации рассматривают­ся также методы формирования этой структуры. Некоторые структурные образования информации настолько тесно связаны со способами образования, что их природу нельзя понять, не рассмотрев одновременно и те методы, с помощью которых они созданы. Как эмпирическое знание преобразуется в теоретиче­ское? Сводима ли информация, содержащаяся в теории, к той информации, которая добыта в эксперименте и послужила осно­ванием для построения теории? Какова роль общенаучных мето­дов моделирования, интерполяции, экстраполяции, абстрагиро­вания, индукции, дедукции и других в образовании новой инфор­мации? Вот те вопросы, ответы на которые способствуют прояснению ситуации в этом направлении исследования.

Информационный анализ этих методов заключается в вы­яснении их эвристических возможностей в процессе научного открытия, в изучении этих способов преобразования информации с целью определения границ их применения в научном поз­нании. Информационный анализ научного исследования в математике, физике, экономической науке, истории изучает спе­цифические особенности использования этих общенаучных мето­дов в отдельных отраслях науки с целью получения информа­ции, обладающей новизной. При этом используются понятия и логики науки, и того раздела кибернетики, который опреде­ляется как эвристика и, естественно, анализируются также ка­тегории и принципы эмпирических наук, их роль и значение в создании новых информационных сведений.

Любая информация выражается в языковых образованиях. Уста­новленные в эксперименте закономерности фиксируются пред­ложениями. Теория – это совокупность высказываний, опреде­ленным образом взаимосвязанных. Научное исследование – это процесс преобразования информации, закрепленной в языке. Автоматическое индексирование и вообще информационный поиск невозможны без анализа терминологических связей в сов­ременном научном знании, без создания специальных информа­ционных языков на базе соответствующей обработки естествен­ного языка.

Каковы общие принципы построения информационных языков? Есть ли закономерности в научном поиске или это – чисто интуитивный процесс постижения исти­ны? Эти вопросы требуют решения. Они поставлены развитием науки. Логика науки способствовала возникновению и бурному развитию самостоятельной отрасли знания – логической семантики.

Любое информационное сообщение состоит из знаков алфавита. В информационно-логическом анализе языка науки важное значение имеют разработанные современной формальной логи­кой методы построения исчислений, а также гносеологические, философские приемы исследования [22]. Информация имеет смысл, если она является знанием о дейст­вительности. В процессе открытия важно точно установить, от­ражает добытая информация что-либо реальное или она – плод человеческого воображения. Проблема проверки знаний, их под­тверждаемости – одна из наиболее сложных в науке. Информа­ция всегда релятивна. Абсолютное в ней – это только тенден­ция, становящаяся закономерностью на бесконечной сумме ин­формационных сведений. Научная теория, как правило, стро­ится в форме последовательности знаков, допускающих различ­ную интерпретацию.

Проблема све­дения, то есть замены теоретических терминов некоторой упоря­доченной совокупностью эмпирических терминов (или указанием способа построения теоретических терминов), неразрешима чис­то логическими средствами. Поскольку нет критериев простоты или сложности теоретических понятий, то нет и единой их после­довательности, ведущей к научному результату. Одно и то же открытие может совершаться различными сочетаниями терминов и используемых методов. Поэтому логическая «препарация» тео­ретического знания должна быть дополнена анализом существа информации, то есть тех практических путей употребления терми­нов, которые приняты в данной науке. В каждой научной от­расли проблема сведения решается практически.

Задача информационного анализа – изыскание путей управ­ления научно-исследовательским процессом. Информационный анализ научного исследования охватывает две стороны творческого процесса: совокупность элементов творчества, приемы и методы, с помощью которых достигается определенный познавательный результат и их взаимодейст­вие. Эту же мысль можно выразить определеннее, если употре­бить термин «функция» для обозначения процесса преобразо­вания информации в ходе проведения научного исследования и понятие «набор элементов исследования» для вычленения в на­учном исследовании как системы материальных и нематериаль­ных средств его реализации экспериментальной техники, методов, приемов, умений, каких-то операций. Определенный набор элементов исследования сопряжен с определенными правилами их функционирования. Поэтому, зная набор элементов, можно отыс­кать правила их функционирования, те методы и приемы, которыми научная информация в пределах системы исследова­ния преобразуется в исследовательские результаты. Справедливо и об­ратное утверждение: зная функциональные особенности данного научного исследования, можно описать те элементы, из ко­торых оно состоит.

На­учное исследование исходит из теории научной информации как методики, науки об информационной дея­тельности – теории выявления закономер­ностей возникновения научной информации, основу которой составляет понятие информации в различных своих аспектах.

Библиографический список

1. Автоматизация производства и промышленная электроника / ред.: А. И. Берг, В. А. Трапезников. – М. : Советская энциклопедия, 1965. – Т. 4. Телекомандование – Ячейки стандартные. – 544 с.

2. Амосов Н. М. Мышление и информация // Проблемы мышления в современной науке. – М. : Мысль, 1964. – 420 с.

3. Бир Ст. Кибернетика и управление производством. – М. : Физматгиз, 1963. – 275 с.

4. Блох И. И. Основные понятия теории информации. – Л. : Изд-во общества по распространению политических и научных знаний РСФСР. Ленинградское отделение, 1959. – 28 с.

5. Бриллюэн Л. Наука и теория информации. – М. : Физматгиз, 1960. – 392 с.

6. Винер Н. Кибернетика и общество. – М. : Изд-во иностранной литературы, 1959. – 432 с.

7. Винер Н. Кибернетика, или Управление и связь в животном и машине. – М. : Советское радио, 1958. – 215 с.

8. Георгиев Ф. И., Хрустов Г. Ф. О предпосылках и особеннос­тях сознания // Вопросы философии. – 1965. – № 10. – С. 14–21.

9. Глушков В. М. Мышление и кибернетика // Вопросы философии. – 1963. – № 1. – С. 10–24.

10. Гончаров В. Н. Исследование информационных процессов в контексте определения ценности информации // Социосфера. – 2011. – № 3. – С. 9–14.

11. Гущин Д. А. К вопросу о природе информации // Вопросы философии. – 1965. – № 1. – С. 84–93.

12. Жуков Н. И. Информация. Философский анализ. – Минск : Наука и техника, 1966. – 164 с.

13. Иванов С. Г. Некоторые философские вопросы кибернетики. – Л. : Общество по распространению политических  и научных знаний РСФСР. Ленинградское отделение, 1963. – 56 с.

14. Колмогоров А. Н. Проблемы теории вероятностей и математи­ческой статистики // Вестник АН СССР. – 1965. – № 5. – С. 35–36.

15. Колмогоров А. Н. Три подхода к определению понятия «количество информации» //  Проблемы  передачи  информации. –   1965. –  Т. 1. –  № 1. – С. 3–11.

16. Колосова О. Ю. Социальная синергетика в управлении социальными системами // Исторические, философские, политические и юридические науки, культурология и искусствоведение. Вопросы теории и практики. – 2011. – № 1. – С. 118–120.

17. Копнин П. В. Введение в марксистскую гносеологию. – Киев : Наукова думка, 1966. – 288 с.

18. Косолапов В. В. Информационно-логический анализ научного исследования. – Киев : Изд-во УкрНИИНТИ, 1968. – 352 с.

19. Медведьев Н. В. Теория отражения и ее естественнонаучное обо­снование. – М. : Соцэкгиз, 1963. – 286 с.

20. Нейман Дж. Общая и логическая теория автоматов / пер. с англ. –  М. : Физматгиз, 1960. – 110 с.

21. Новик И. Б. Кибернетика. Философские и социологические пробле­мы. – М. : Госполитиздат, 1963. – 207 с.

22. Попович М. В. О философском анализе языка науки. – Киев : Наукова думка, 1966. – 224 с.

23. Ровенский 3. И., Уемов А. И., Уемова Е. А. Машина и мысль. – М. :  Госполитиздат, 1960. – 143 с.

22–24. Синай Я. О понятии энтропии динамической системы // Доклады АН СССР. – 1959. – Т. 124. – С. 768–771. 

25. Соболев С. Л., Китов А. И., Ляпунов А. А. Основные черты кибернетики //  Вопросы философии. – 1955. – № 4. – С. 136.

26. Тарасенко Ф. П. К определению понятия «информация» в кибер­нетике // Вопросы философии. – 1963. – № 4. – С. 64–68.

27. Урсул А. Д. Информационный критерий развития в природе // Фи­лософские науки. – 1966. – № 2. – С. 43–51.

28. Урсул А. Д. О природе информации // Вопросы философии. – 1965. – № 3. – С. 134.

29. Xинчин А. Я. Об основных теоремах теории информации // Успехи математических наук. – 1956. – Т. XI. – Вып. 1. – С. 17–75.

30. Шеннон К. Работы по теории информации и кибернетике. – М. : Изд-во иностранной литературы, 1963. – 830 с.

31. Шеннон К. Статистическая теория передачи электрических сигналов // Теория передачи электрических сигналов при наличии помех : сб. ст. / под ред. А. Н. Железнова. –  М. : ИЛ, 1953. – 288 с.

32. Шмальгаузен И. И. Естественный отбор и информация // Известия АН СССР (серия биологическая). – 1960. – № 1. – С. 19–38.

33. Эшби У. P. Введение в кибернетику. – М. : Изд-во иностранной литературы, 1959. – 432 с.

34. Вlom А. V. Raum Leit und die Elektron Perspektiven der Kybernetik. – Miinchen, 1959.

35. Ingагdеn R. S., Uгbaniк К. Information without probability // Colloquium mathematicum. – 1962. – № 1. – Р. 9.

36. Quntheг G. Das Bewubtsein der Maschine Eine Metaphysik der Kybernetik. – Krefeld, 1957.

37. Wasmuth E. Der Mensch und Denkmaschin. – Koln, 1956.

Полный архив сборников научных конференций и журналов.

Уважаемые авторы! Кроме избранных статей в разделе "Избранные публикации" Вы можете ознакомиться с полным архивом публикаций в формате PDF за предыдущие годы.

Перейти к архиву

Издательские услуги

Научно-издательский центр «Социосфера» приглашает к сотрудничеству всех желающих подготовить и издать книги и брошюры любого вида

Издать книгу

Издательские услуги

СРОЧНОЕ ИЗДАНИЕ МОНОГРАФИЙ И ДРУГИХ КНИГ ОТ 1 ЭКЗЕМПЛЯРА

Расcчитать примерную стоимость

Издательские услуги

Издать книгу - несложно!

Издать книгу в Чехии