Ближайшие конференции по темам

ФилософияФилософия - К-05.13.21

СоциологияСоциология - К-09.10.22

ИскусствоведениеИскусствоведение - К-09.20.22

ИсторияИстория - К-05.13.21

КультурологияКультурология - К-09.20.22

МедицинаМедицина - К-10.05.22

ПедагогикаПедагогика - К-05.13.21

ПолитологияПолитология - К-05.13.21

ПравоПраво - К-09.15.22

ПсихологияПсихология - К-05.13.21

ТехникаТехника - К-10.05.22

ФилологияФилология - К-09.20.22

ЭкономикаЭкономика - К-09.10.22

ИнформатикаИнформатика - К-10.05.22

ЭкологияЭкология - К-10.05.22

РелигиоведениеРелигиоведение - К-09.20.22


Ближайший журнал
Ближайший Научный журнал
Paradigmata poznání. - 2022. - № 3

Научный мультидисциплинарный журнал

PP-3-22

русскийрусский, английскийанглийский, чешскийчешский

21-20.07.2022

Идёт приём материалов

Информатика Искусствоведение История Культурология Медицина Педагогика Политология Право Психология Религиоведение Социология Техника Филология Философия Экология Экономика


Литературный журнал Четверговая соль
Литературный журнал "Четверговая соль"

Каталог статей из сборников научных конференций и научных журналов- Методологические аспекты формирования понятия информации в науке

Методологические аспекты формирования понятия информации в науке

В. Н. Гончаров

Ставропольский государственный педагогический институт,

г. Ставрополь, Россия

 

Для решения отдельных конкретных задач разра­ботаны определения информации К. Шеннона [30], А. Я. Хинчина [29], Н. Винера [6], Л. Бриллюэна [5], Дж. Неймана [20], Э. Кольмана [1] и ряда других исследователей. Согласно Шеннону, информацию мож­но определить как меру того количества неопределенности, ко­торое уничтожается после получения сообщения. Важность ин­формации, содержащейся в сообщении, не учитывается. Чем больше неопределенностей в равновероятных состояниях системы, тем больше требуется информации для того, чтобы свести ее к определенности. В исследовании (например, экспериментальном) определяемые объекты имеют неодинаковую вероятность. Поэтому задача заключается в оптимальном выборе кратчайшего пути к иско­мому ответу на поставленные вопросы путем узнавания наиболее вероятных состояний системы.

В теории информации учитываются взаимосвязи сиг­налов, то есть свойства совокупностей сообщений. Если все сигналы статически подобны, то наблюдения за одним из них экстра­полируются на всю их совокупность. Л. Бриллюэном предложено несколько иное, отличное от шенноновского, понимание информации, а именно: на основании вто­рого закона термодинамики энтропия системы должна увеличи­ваться или оставаться постоянной. Это означает, что организа­ционные связи между ее элементами должны становиться все более случайными, хаотичными. В случае получения информации неопределенность системы уменьшается, то есть ее энтропия умень­шается. «Убывающая энтропия системы служит началом  самоорганизации в материальных системах» [16, с. 118]. Следовательно, полученная информация может рассмат­риваться как отрицательная энтропия, или негэнтропия. Доба­вочная информация увеличивает негэнтропию системы. Увели­чивая негэнтропию, мы увеличиваем тем самым информацию о системе. Справедливо и обратное заключение: уменьшение негэнтропии системы ведет к потере информации.

Статистическая интерпретация энтропии в термодинамике была перенесена Клодом Шенноном на другие области действи­тельности, где могли происходить случайные процессы, и прежде всего на теорию связи. Вскоре стало понятным, что концепция информации применима не только в теории связи, но и в биоло­гии, психологии, лингвистике и других науках, там, где объек­тивно существуют статистические закономерности. Норберт Ви­нер применил понятие информации к управлению и тем самым дал толчок к повсеместному применению этого понятия во всех областях современной науки. Расширение области применения понятия информации и теории информации К. Шеннона начало приводить к пониманию специфики информации и информацион­ных закономерностей в различных сферах действительности. По мере развития самой математической теории информации поня­тие информации распространялось с дискретных на непрерыв­ные системы, с конечных на бесконечные.

Антропоморфное понимание информации в докибернетический период представляет лишь составную часть того содер­жания, которое вкладывается в этот термин в настоящее время. Следует отметить, что сам тер­мин «информация» понимается разными исследователями далеко не однозначно.

Очень широкий смысл понятию «информация» был придан С. Л. Соболевым, А. Н. Китовым и А. А. Ляпуновым в одной из работ, позитивно освещавших проблемы кибернетики. Столь же широкий «всеобъемлющий» смысл понятия «информация» содержится в работах В. М. Глушкова [9], Н. М. Амосова [2], Ф. П. Тарасенко [26], 3. И. Ровенского, А. И. Уемова, Е. А. Уемовой [23],  Д. А. Гущина [11], И. Б. Новика [21]. А. Н. Медведьев, напротив, сужает это поня­тие до условно-рефлекторной деятельности [19]. К. Шеннон скло­нен истолковывать понятие «информация» как относящееся лишь к техническим средствам связи [31].

Своеобразное понимание информации как объекта рассмот­рения зачастую ограничивается лишь формализованной сторо­ной информации и отмежевывается от анализа тех сторон, кото­рые еще не получили формального описания. Широко распро­страненное сужение понятия информации до ее формализован­ной части находим и в «Кратком философском словаре», где под научным понятием информации берется именно ее формализо­ванная сторона и противопоставляется ее богатому связями оп­ределению, выработанному в докибернетический период. Необ­ходимо отметить, что небольшой области формализованных отношений противостоит огромное количество отношений, под­лежащих формализации, но с трудом поддающихся ей. Это каса­ется также и информации. Исследователи в области кибернетики в качестве конечной цели имеют в виду формализовать или по возможности формализовать все стороны информации. Резуль­таты, достигнутые быстро развивающейся отраслью кибернети­ки – теорией информации, касаются лишь чрезвычайно частных процессов передачи, приема и переработки информации. Можно говорить только о частных разделах этой теории.

Ф. И. Георгиев и Г. Ф. Хрустов [8] рассматривают инфор­мацию как сведения о предметах внешней действительности и разделяют ее на витальную и предметную. Под витальной при этом подразумевается информация о постоянных признаках объ­екта, входящих в сферу биологических потребностей организма, которые замещаются временными сигналами, играющими роль биологически значимых для организма. Предметной называется информация об объективных признаках предметов, выявляемых при соотношении этих предметов друг с другом.

По мнению некоторых исследователей, информация разделя­ется на два более общих вида. У Н. И. Жукова [12] это – информация живой и искусственной природы. У С. Г. Иванова [13] и И. И. Блоха [4] – чело­веческая, осмысленная, и машинная. У В. В. Косолапова [18] – семантическая и техническая. При этом понимается, что техни­ческая (машинная) информация касается непосредственной пе­редачи через канал связи при помощи сигналов, ее можно точно математически выразить, она имеет вполне объективный харак­тер и не имеет непосредственно никакого касательства к чело­веческому сознанию. Это информация, передаваемая техничес­ким математическим устройством или переносимая математическим устройством или нервными волокнами. Семантическая человеческая осмысленная информация касается потребителя, который сообщение истолковывает, понимает и использует.

Некоторые зарубежные авторы связывают понятие информа­ции с религией, используя современный аппарат науки, и в част­ности кибернетики, для доказательства своих идей: в информации усматривается особый нематери­альный принцип действительности, принцип, который объединяет субъективную и объективную области [34]; информация понимается как посредник между сознанием и материей [36]; дается «кибернетическое доказательство бытия божьего», при этом информация – это третья ценность на­ряду с сознанием и материей, а бог представляет тож­дество этих трех ценностей [37].

Рядом исследователей информация трактуется через понятие разнообразия. Впервые подобное толкование находим у У. Росс Эшби [33]. Взаимосвязь информации и разнообразия также отмечает Ст. Бир [3]. Подобное отношение к информа­ции, как к разнообразию, находим у биологов, например у И. И. Шмальгаузена [32]. В философ­ских работах также разрабатывается подобная трактовка. К таковым можно отнести работы П. В. Копнина [17], А. Д. Урсула [27; 28].

В дальнейшем можно отметить некоторый отход от статистическо-вероятностных концепций определения инфор­мации. По мнению А. Н. Колмогорова, «информация по своей природе – не специально вероятностное понятие» [14, с. 35–36]. Еще ранее подобная концепция нашла свое выражение в комби­наторном определении количества информации и ее теоретико-множественном развитии в рамках концепции е-энтропии. А. Н. Колмогоров  отмечает, что комбинаторное опре­деление количества информации как логарифма мощности конечного множества (и как его обобщение – е-энтропия) логи­чески независимо от статистического подхода определения коли­чества информации [15]. В упомянутых двух работах А. Н. Колмого­ров развивает способы математически отличного от статистиче­ского определения количества информации – алгоритмический (на основе рекурсивных функций) и топологический. Можно ука­зать на трактовку понятия информации в рамках не статистиче­ской, а динамической системы, где количество информации опре­деляется при помощи меры множеств [24]. Некоторые исследователи рассматривают аксиоматическое понятие информации как некоторую вещественную функцию на булевых кольцах, не прибегая к помощи вероятной меры, исходя из того, что первичным является понятие, а производным от него – понятие вероятности [35].

Описанные определения понятия информации составляют сущность математической теории информации, или теории «сиг­нальной информации». Эта теория лежит в основе информатики. Но в информатике, кроме количественных характеристик, рас­сматриваются также ее качественные особенности, ее семантиче­ское значение, важность информации для потребителя.

Информация является знанием со всеми присущими ему свойствами: достоверностью, первичностью или вторичностью, соответствием достигнутому научно-техническому уровню. Как знание информация может быть выражена и ассоциативным образом, и термином, и структурно-логическим знаком.

Чувственный аппарат в логической информатике не анали­зируется, но он является средством получения, хранения и вос­произведения знаний.

Понятие информации в этом смысле С. Л. Соболев, А. И. Ки­тов и А. А. Ляпунов описывают так: «Информацией называются сведения о результатах каких-либо событий, которые заранее не были известны... Понятию информации кибернетика придает очень широкий смысл, включая в него как всевозможные внеш­ние данные, которые могут восприниматься или передаваться какой-либо определенной системой, так и данные, которые могут вырабатываться внутри системы... Информацией могут яв­ляться, например, воздействия внешней среды на организм человека и животного; знания и сведения, получаемые челове­ком в процессе обучения; сообщения, предназначенные для пере­дачи с помощью какой-либо линии связи; исходные промежуточ­ные и окончательные данные в вычислительных машинах [25, с. 136]. Но являются ли информация и знание полностью тождественными понятиями? Чтобы ответить на этот вопрос, не­обходимо уточнить круг тех объектов, которые принципиально могут изучаться с помощью понятий «информация» и «знание». Обмен информацией совершается не вообще между материаль­ными телами, а только между теми из них, которые представля­ют систему, обладающую каким-то минимумом организованнос­ти. Информационные процессы всегда связаны с взаимодействием тел, переносом энергии, ее потерей в одном месте и накоплением в другом. Но они не являются ни энергией, ни формой матери­ального движения, аналогичной, скажем, механической или био­логической. Информационность – это такое же свойство матери­альных тел, как их пространственность, бытие, существование. И как атрибут пространственного расположения тел фик­сируется человеком на основании всех известных данных о дей­ствительности, а не каких-то отдельных умозрительных заклю­чений, так и информационность, присущая материи, доказывает­ся всей общественно-исторической практикой. «Информация есть информация, а не материя и не энергия. Тот материализм, который не признает этого, не может быть жизнеспособным в настоящее время» [7, с. 166].

Поскольку это так, то информация – понятие, описывающее один из главнейших атрибутов свойств материи. То, что описы­вается этим понятием, является конкретным содержанием кате­гории отражения в философии. Как известно, от­ражение является всеобщим свойством материальной действи­тельности.

Свойства материи – движение, пространство, время, инфор­мационность – определяются структурой материальных тел. Например, пространство макромира – эвклидово, то есть трех­мерно, пространству Космоса присуща кривизна, оно описывает­ся неэвклидовыми геометриями. Структурные уровни организации материи определяют качественно разные формы информации. Можно говорить об информационности физических, биологиче­ских, социальных и других процессов. В обществе действующим субъектом является че­ловек, наделенный сознанием. Содержанием сознания является совокупность знаний, добытых человеком в процессе познания действительности. Познавательная деятельность, в том числе и научно-исследовательская, представляется процессом получения знания с целью уменьшения энтропии сознания, то есть повышения его организованности. Знание – это инфор­мация, существующая в условиях социальной среды, являющая­ся результатом познания как процесса повышения информаци­онной емкости сознания человека и общества вообще.

Таким образом, можно сказать, что знание – это только та часть информации, которая циркулирует в социальной среде и имеет какой-либо смысл только в ее пределах. Знание, изучаемое мно­гими научными дисциплинами, в информатике исследуется как информационный процесс.

В основании научной информации лежат также другие фун­даментальные, исходные понятия, которые средствами этой тео­рии не определяются. Их достоверность устанавливается прак­тикой информационной деятельности. К таким понятиям можно отнести алфавит, код, сообщение.

Алфавит – это система графических знаков, букв, символов, знаков препинания, которые используются для записи информации как основной формы ее передачи и обмена в об­ществе. Сообщение – это любая часть информации (от одной буквы алфавита до их значительного числа), которой обмениваются люди. Код – это алфавит, специализированный с учетом техниче­ских средств передачи сообщений. Переход от одного алфавита к другому является процессом перекодирования, а специализа­ция алфавита – кодированием сообщения. Сообщение передается в форме определенного кода каналом связи. Канал связи – это совокупность технических средств, при­способленных для передачи кодированных сообщений от источ­ника сообщений к приемнику (получателю) сообщений.

Поскольку источником сообщений является вся человеческая деятельность, то они содержат разнообразнейшую информацию. Информация – это функция состояния любой материальной системы, показатель разнообразия (изменчивости) ее структуры (организации). Чтобы какая-либо система была источником ин­формации, достаточно наличия в ее структуре хотя бы несколь­ких переменных элементов. Канал связи определяется только количественной характеристикой передаваемых сообщений, то есть тем числом, которое соответствует объему сообщений – количе­ству содержащихся в нем букв (знаков) алфавита. Содержа­тельная (качественная) сторона сообщения не оказывает на свойства канала связи никакого влияния. Прием сообщения осуществляет функции получателя ин­формации о предмете (или материальной системе) и ее интер­претации (истолкования или понимания смысла сообщения). Смысл – это все то, что устанавливается интерпретацией полу­ченного сообщения о предмете информации и имеет ценность с точки зрения его получателя.

Одно и то же сообщение может иметь бесконечное количе­ство интерпретаций, а следовательно, и смыслов. Информацию по определенному кругу вопросов, которая на­ходится в любом источнике научной информации, можно раз­делить на сообщения. Возникает вопрос о необходимости уста­новить какую-то среднюю величину сообщения, то есть определить среднее сообщение, так как в противном случае нельзя будет сравнивать отдельные сообщения. Под средним сообщением по­нимается определенное количество информации, одинаковое для всех сообщений.

Научную информацию целесообразно на­капливать только по наиболее ценным источникам информации. Можно, очевидно, говорить о смысловой емкости одного и то­го же понятия, употребляемого в разных теоретических систе­мах, о глубине интерпретации знаков и, вероятно, в зависимости от этого о глубине индексирования терминов. На информацион­ную емкость понятий решающее влияние оказывает контекст, в котором они употребляются. Информация обладает также цен­ностью как средство объяснения действительности, предска­зания получения новых информаци­онных сведений, описания и систематизации этих сведений. В процессе развития знания информационные сведения могут обесцениваться или их ценность может возрастать.

Ценность научной информации тесно связана со шкалой вре­мени и имеет тенденцию с течением времени уменьшаться. Это положение имеет особое значение для тех наук, которые используют методы информатики в качестве приема исследо­вания.

Понятия теории информации используются в физике, химии, биологии, геохимии, геологии как эффективное средство анализа, а также в области общественных наук. Конкретные задачи, стоящие пе­ред исследователями социальных явлений и процессов, и тенден­ции развития информационной ситуации в науке в целом обус­ловливают усиленное внимание к вопросу повышения уровня организации общественно-научных исследований. «Такие исследования ведутся на основе все более широкого методологического и методического инструментария, комплексного подхода с позиций разных наук, так как ясно, что средствами одной лишь статистической теории информации невозможно охватить все многообразие информационных проблем в социальной среде» [10, с. 9].

Практика информационной деятельности в области есте­ственных наук и техники показывает рациональность организа­ции подобного рода деятельности и в области наук общест­венных.

Все более настоятельной становится необходимость функцио­нального разделения общественно-научной исследовательской деятельности с выделением в самостоятельный вид научной ра­боты информационной деятельности. Дифференцирован­ное обслуживание исследователя предусматривает информационный сервис, а это требует предваритель­ного анализа, качественной переработки информационных ма­териалов – составляющих информационного потока. Информационный поток – это упорядоченное множество ин­формационных документов, циркулирующих в информационной системе. Процесс формирования потока является не просто про­цессом накопления. Ему обязательно предшествует отбор наи­более информативных источников, преследующий цели упорядо­чения потока, обслуживающего информационную систему на входе.

Специфика общественных наук и образующих их понятий, обусловливающая характер общественно-научной информации, определяет особенности формирования потоков в области этих наук. Причем процесс формирования информационных потоков в большой степени зависит от степени формализации обществен­но-научной информации.

Информация условно может иметь два состояния: стати­ческое и динамическое. Фиксация информации приводит ее в статическое состояние по отношению к некоторому материально­му носителю, массиву, то есть к окружающей среде. Фиксация ин­формации преследует две цели – сохранение ее на определенное время (память человечества) и последующую передачу ее како­му-то кругу потребителей информации. Информационное взаимодействие людей путем передачи ин­формации является конкрет­ным выражением динамического состояния информации. Поэто­му статическое и динамическое состояния информации являются не взаимоисключающими, а взаимодополняющими понятиями. Динамика информации характерна для всех видов, но содержание информации, средства, формы и методы передачи существенно отличаются друг от друга. Можно выделить две характерные группы: передачу информации без изменения ее содержания и с изменением. Вторая группа представляет сложный интеллектуальный процесс переработки информации.

Первостепенное значение имеет передача информации в пространстве. На этом пути возможна многократная трансформация информации, особенно с использованием технических средств связи. Главным критерием трансформации является надежность (отсутствие потери). Перевод (традиционными методами и машинный) является особым видом трансформации информации. Потеря информации при этом является неже­лательным, но практически (хотя и в незначительных размерах) часто встречающимся случаем.

Для научной информации немаловажным является описание эвристических особен­ностей познавательных форм эмпирического и теоретического знания  факта, системы фактов, гипотезы как совокупнос­ти вероятного значения, теории как множества достоверных знаний. При этом в отличие от логики науки эти формы рас­сматриваются в плане возрастания их эвристичности по мере исторического становления науки. Структура научного знания изучается как система, содержащая в себе аккумулятивный опыт познания действительности. Это придает структурным элемен­там науки эвристические особенности в получении принципиаль­но новой информации. Само научное знание, развиваясь, по­рождает проблемы и служит средством их разрешения. В этом смысле научная теория – всегда метод, путь, способ получения новой информации. Важную роль в формировании информации имеет современный эксперимент. Информационно-логический анализ позволяет изучать термины, различные виды высказы­ваний из терминов, уровни индексирования.

Наряду со структурой научной информации рассматривают­ся также методы формирования этой структуры. Некоторые структурные образования информации настолько тесно связаны со способами образования, что их природу нельзя понять, не рассмотрев одновременно и те методы, с помощью которых они созданы. Как эмпирическое знание преобразуется в теоретиче­ское? Сводима ли информация, содержащаяся в теории, к той информации, которая добыта в эксперименте и послужила осно­ванием для построения теории? Какова роль общенаучных мето­дов моделирования, интерполяции, экстраполяции, абстрагиро­вания, индукции, дедукции и других в образовании новой инфор­мации? Вот те вопросы, ответы на которые способствуют прояснению ситуации в этом направлении исследования.

Информационный анализ этих методов заключается в вы­яснении их эвристических возможностей в процессе научного открытия, в изучении этих способов преобразования информации с целью определения границ их применения в научном поз­нании. Информационный анализ научного исследования в математике, физике, экономической науке, истории изучает спе­цифические особенности использования этих общенаучных мето­дов в отдельных отраслях науки с целью получения информа­ции, обладающей новизной. При этом используются понятия и логики науки, и того раздела кибернетики, который опреде­ляется как эвристика и, естественно, анализируются также ка­тегории и принципы эмпирических наук, их роль и значение в создании новых информационных сведений.

Любая информация выражается в языковых образованиях. Уста­новленные в эксперименте закономерности фиксируются пред­ложениями. Теория – это совокупность высказываний, опреде­ленным образом взаимосвязанных. Научное исследование – это процесс преобразования информации, закрепленной в языке. Автоматическое индексирование и вообще информационный поиск невозможны без анализа терминологических связей в сов­ременном научном знании, без создания специальных информа­ционных языков на базе соответствующей обработки естествен­ного языка.

Каковы общие принципы построения информационных языков? Есть ли закономерности в научном поиске или это – чисто интуитивный процесс постижения исти­ны? Эти вопросы требуют решения. Они поставлены развитием науки. Логика науки способствовала возникновению и бурному развитию самостоятельной отрасли знания – логической семантики.

Любое информационное сообщение состоит из знаков алфавита. В информационно-логическом анализе языка науки важное значение имеют разработанные современной формальной логи­кой методы построения исчислений, а также гносеологические, философские приемы исследования [22]. Информация имеет смысл, если она является знанием о дейст­вительности. В процессе открытия важно точно установить, от­ражает добытая информация что-либо реальное или она – плод человеческого воображения. Проблема проверки знаний, их под­тверждаемости – одна из наиболее сложных в науке. Информа­ция всегда релятивна. Абсолютное в ней – это только тенден­ция, становящаяся закономерностью на бесконечной сумме ин­формационных сведений. Научная теория, как правило, стро­ится в форме последовательности знаков, допускающих различ­ную интерпретацию.

Проблема све­дения, то есть замены теоретических терминов некоторой упоря­доченной совокупностью эмпирических терминов (или указанием способа построения теоретических терминов), неразрешима чис­то логическими средствами. Поскольку нет критериев простоты или сложности теоретических понятий, то нет и единой их после­довательности, ведущей к научному результату. Одно и то же открытие может совершаться различными сочетаниями терминов и используемых методов. Поэтому логическая «препарация» тео­ретического знания должна быть дополнена анализом существа информации, то есть тех практических путей употребления терми­нов, которые приняты в данной науке. В каждой научной от­расли проблема сведения решается практически.

Задача информационного анализа – изыскание путей управ­ления научно-исследовательским процессом. Информационный анализ научного исследования охватывает две стороны творческого процесса: совокупность элементов творчества, приемы и методы, с помощью которых достигается определенный познавательный результат и их взаимодейст­вие. Эту же мысль можно выразить определеннее, если употре­бить термин «функция» для обозначения процесса преобразо­вания информации в ходе проведения научного исследования и понятие «набор элементов исследования» для вычленения в на­учном исследовании как системы материальных и нематериаль­ных средств его реализации экспериментальной техники, методов, приемов, умений, каких-то операций. Определенный набор элементов исследования сопряжен с определенными правилами их функционирования. Поэтому, зная набор элементов, можно отыс­кать правила их функционирования, те методы и приемы, которыми научная информация в пределах системы исследова­ния преобразуется в исследовательские результаты. Справедливо и об­ратное утверждение: зная функциональные особенности данного научного исследования, можно описать те элементы, из ко­торых оно состоит.

На­учное исследование исходит из теории научной информации как методики, науки об информационной дея­тельности – теории выявления закономер­ностей возникновения научной информации, основу которой составляет понятие информации в различных своих аспектах.

Библиографический список

1. Автоматизация производства и промышленная электроника / ред.: А. И. Берг, В. А. Трапезников. – М. : Советская энциклопедия, 1965. – Т. 4. Телекомандование – Ячейки стандартные. – 544 с.

2. Амосов Н. М. Мышление и информация // Проблемы мышления в современной науке. – М. : Мысль, 1964. – 420 с.

3. Бир Ст. Кибернетика и управление производством. – М. : Физматгиз, 1963. – 275 с.

4. Блох И. И. Основные понятия теории информации. – Л. : Изд-во общества по распространению политических и научных знаний РСФСР. Ленинградское отделение, 1959. – 28 с.

5. Бриллюэн Л. Наука и теория информации. – М. : Физматгиз, 1960. – 392 с.

6. Винер Н. Кибернетика и общество. – М. : Изд-во иностранной литературы, 1959. – 432 с.

7. Винер Н. Кибернетика, или Управление и связь в животном и машине. – М. : Советское радио, 1958. – 215 с.

8. Георгиев Ф. И., Хрустов Г. Ф. О предпосылках и особеннос­тях сознания // Вопросы философии. – 1965. – № 10. – С. 14–21.

9. Глушков В. М. Мышление и кибернетика // Вопросы философии. – 1963. – № 1. – С. 10–24.

10. Гончаров В. Н. Исследование информационных процессов в контексте определения ценности информации // Социосфера. – 2011. – № 3. – С. 9–14.

11. Гущин Д. А. К вопросу о природе информации // Вопросы философии. – 1965. – № 1. – С. 84–93.

12. Жуков Н. И. Информация. Философский анализ. – Минск : Наука и техника, 1966. – 164 с.

13. Иванов С. Г. Некоторые философские вопросы кибернетики. – Л. : Общество по распространению политических  и научных знаний РСФСР. Ленинградское отделение, 1963. – 56 с.

14. Колмогоров А. Н. Проблемы теории вероятностей и математи­ческой статистики // Вестник АН СССР. – 1965. – № 5. – С. 35–36.

15. Колмогоров А. Н. Три подхода к определению понятия «количество информации» //  Проблемы  передачи  информации. –   1965. –  Т. 1. –  № 1. – С. 3–11.

16. Колосова О. Ю. Социальная синергетика в управлении социальными системами // Исторические, философские, политические и юридические науки, культурология и искусствоведение. Вопросы теории и практики. – 2011. – № 1. – С. 118–120.

17. Копнин П. В. Введение в марксистскую гносеологию. – Киев : Наукова думка, 1966. – 288 с.

18. Косолапов В. В. Информационно-логический анализ научного исследования. – Киев : Изд-во УкрНИИНТИ, 1968. – 352 с.

19. Медведьев Н. В. Теория отражения и ее естественнонаучное обо­снование. – М. : Соцэкгиз, 1963. – 286 с.

20. Нейман Дж. Общая и логическая теория автоматов / пер. с англ. –  М. : Физматгиз, 1960. – 110 с.

21. Новик И. Б. Кибернетика. Философские и социологические пробле­мы. – М. : Госполитиздат, 1963. – 207 с.

22. Попович М. В. О философском анализе языка науки. – Киев : Наукова думка, 1966. – 224 с.

23. Ровенский 3. И., Уемов А. И., Уемова Е. А. Машина и мысль. – М. :  Госполитиздат, 1960. – 143 с.

22–24. Синай Я. О понятии энтропии динамической системы // Доклады АН СССР. – 1959. – Т. 124. – С. 768–771. 

25. Соболев С. Л., Китов А. И., Ляпунов А. А. Основные черты кибернетики //  Вопросы философии. – 1955. – № 4. – С. 136.

26. Тарасенко Ф. П. К определению понятия «информация» в кибер­нетике // Вопросы философии. – 1963. – № 4. – С. 64–68.

27. Урсул А. Д. Информационный критерий развития в природе // Фи­лософские науки. – 1966. – № 2. – С. 43–51.

28. Урсул А. Д. О природе информации // Вопросы философии. – 1965. – № 3. – С. 134.

29. Xинчин А. Я. Об основных теоремах теории информации // Успехи математических наук. – 1956. – Т. XI. – Вып. 1. – С. 17–75.

30. Шеннон К. Работы по теории информации и кибернетике. – М. : Изд-во иностранной литературы, 1963. – 830 с.

31. Шеннон К. Статистическая теория передачи электрических сигналов // Теория передачи электрических сигналов при наличии помех : сб. ст. / под ред. А. Н. Железнова. –  М. : ИЛ, 1953. – 288 с.

32. Шмальгаузен И. И. Естественный отбор и информация // Известия АН СССР (серия биологическая). – 1960. – № 1. – С. 19–38.

33. Эшби У. P. Введение в кибернетику. – М. : Изд-во иностранной литературы, 1959. – 432 с.

34. Вlom А. V. Raum Leit und die Elektron Perspektiven der Kybernetik. – Miinchen, 1959.

35. Ingагdеn R. S., Uгbaniк К. Information without probability // Colloquium mathematicum. – 1962. – № 1. – Р. 9.

36. Quntheг G. Das Bewubtsein der Maschine Eine Metaphysik der Kybernetik. – Krefeld, 1957.

37. Wasmuth E. Der Mensch und Denkmaschin. – Koln, 1956.

Полный архив сборников научных конференций и журналов.

Уважаемые авторы! Кроме избранных статей в разделе "Избранные публикации" Вы можете ознакомиться с полным архивом публикаций в формате PDF за предыдущие годы.

Перейти к архиву

Издательские услуги

Научно-издательский центр «Социосфера» приглашает к сотрудничеству всех желающих подготовить и издать книги и брошюры любого вида

Издать книгу

Издательские услуги

СРОЧНОЕ ИЗДАНИЕ МОНОГРАФИЙ И ДРУГИХ КНИГ ОТ 1 ЭКЗЕМПЛЯРА

Расcчитать примерную стоимость

Издательские услуги

Издать книгу - несложно!

Издать книгу в Чехии