АКАДЕМИЯ НАУК СССР
НАУЧНО-ПОПУЛЯРНАЯ СЕРИЯ
А. И. КИТОВ, Н. А. КРИНИЦКИЙ
ЭЛЕКТРОННЫЕ
ВЫЧИСЛИТЕЛЬНЫЕ
МАШИНЫ
ИЗДАТЕЛЬСТВО
А К А Д Е М И И НАУК СССР
М о с к в а. 1958
Брошюра знакомит читателя с принципом устройства и действия электронных цифровых вычислительных машин. Дается обзор применения электронных вычислительных машин, в частности для решения математических и логических задач и для автоматического управления объектами.
О т в е т с т в е н н ы й р е д а к т о р академик А. А. Д о р о д н и ц ы н
ОГЛАВЛЕНИЕ
Глава I НЕКОТОРЫЕ СВЕДЕНИЯ ИЗ КИБЕРНЕТИКИВозникновение кибернетики
Информация и сигнал
Мера количества информации
Некоторые примеры применения теории информации
Преобразование информации
Самоуправляемые системы
Краткие выводы
Глава II ОСНОВЫ УСТРОЙСТВА ЭЛЕКТРОННЫХ ПРОГРАММНО-УПРАВЛЯЕМЫХ МАШИН.... Основные типы машин
Электронные вычислительные машины непрерывного действия
Электронные цифровые программно-управляемые машины. Представление чисел в машинах
Принцип действия электронных программно-управляемых машин
Технические принципы построения электронных цифровых машин
Глава III ОСНОВЫ ПРОГРАММИРОВАНИЯ
Порядок решения задач на машине
Контроль правильности вычислений
Программирование
Изменяемые программы. Разветвления программ. Циклические программы
Глава IV ПРИМЕНЕНИЕ ЦИФРОВЫХ ПРОГРАММНО-УПРАВЛЯЕМЫХ МАШИН
Решение математических задач
Решение задач логического характера
Автоматическое программирование
Машинный перевод с одного языка на другой
Игра машин в различные игры
Другие задачи логического характера
Применение электронных цифровых машин для целей автоматического управления
Глава I
НЕКОТОРЫЕ СВЕДЕНИЯ ИЗ КИБЕРНЕТИКИ
Возникновение кибернетики Для развития современной науки характерны два процесса.Один из этих процессов можно назвать диссоциацией (расщеплением). Сущность его состоит в том, что научные дисциплины, ранее охватывавшие большие области явлений, распадаются на ряд самостоятельных наук, изучающих значительно более узкие области явлений. Диссоциация наук вызвана их постоянным развитием, в ходе которого изыскиваются более глубокие методы исследования, обнаруживающие коренные различия между явлениями или процессами, бывшими при прежних грубых методах изучения объектами одной науки. Вторая причина диссоциации состоит в быстром увеличении количества изученных фактов, в росте объема накопленных научных знаний.
Поясним сказанное на следующем примере.
Во времена Ньютона и Эйлера математика существовала как единая наука. В настоящее время математика представляет целый комплекс наук, таких как математический анализ, теория функций действительного переменного, теория функций комплексного переменного, высшая алгебра, векторный анализ, тензорный анализ, высшая геометрия, топология, номография, теория чисел и многие другие.
Однако наряду с диссоциацией происходит и другой процесс, противоположный диссоциации по своему характеру. Этот процесс можно назвать ассоциацией, объединением наук в новые научные области.
Сущность ассоциации состоит в том, что в результате углубления научных методов и главным образом благодаря сопоставлениям результатов, даваемых различными науками, возникают новые точки зрения на явления, которые прежде считали не имеющими между собой ничего общего. Это позволяет установить общую точку зрения и применить общий метод к изучению таких явлений. Примером ассоциации может служить возникновение общей теории колебаний, рассматривающей с единой точки зрения такие явления, как механические колебания, акустические колебания (звук), геологические колебания, электромагнитные колебания (свет, радиоволны) и многие другие.
Примером ассоциаций наук является также наблюдаемое нами в настоящее время возникновение новой научной области, получившей название кибернетики.
Кибернетика изучает с единой общей точки зрения вопросы управления и связи в различных системах, которые до сих пор рассматривались в таких далеких друг от друга науках, как математика, логика, биология, психология, физиология, лингвистика, теория связи, теория автоматического регулирования, теория электронных цифровых программно–управляемых машин.
Слово «кибернетика» означает по–гречески — искусство кормчего. Название «кибернетика» для не существовавшей в то время науки было введено еще в 1843 г. крупным французским ученым А. М. Ампером, сделавшим попытку осуществить научную классификацию наук. Ампер считал, что должна существовать наука об управлении государствами и именно для нее ввел это название.
Однако кибернетика как область знания возникла лишь 100 лет спустя, в 40-х годах текущего столетия.
Толчком к ее развитию послужило появление и быстрое совершенствование новых вычислительных средств — электронных программно–управляемых машин.
В 1948 г. вышла в свет первая книга, непосредственно посвященная вопросам кибернетики,— «Кибернетика или управление и связь в животном и машине». Написал ее профессор Колумбийского университета (США) математик Норберт Винер.
Винер определяет кибернетику как науку о «связи», «управлении» и «контроле» в машинах и живых организмах. Случаи, когда связь, управление и контроль осуществляются коллективами людей или людьми при помощи машин, также не исключаются им из рассмотрения.
Таким образом, кибернетика в понимании Винера имеет содержание, отличное от того, которое вкладывал в это слово А. М. Ампер.
При изучении работы электронных программно-управляемых машин была замечена некоторая аналогия, существующая между функциями таких машин и функциями человеческого мозга. Например, машина обладает свойством накопления и хранения чисел, что соответствует функции памяти человеческого мозга. Решение математических задач на электронной программно-управляемой машине осуществляется на основании тех же законов логики, которыми для этих целей пользуется человек.
Дальнейшее изучение этой аналогии показало, что сходство между функциями электронной программно–управляемой машины и функциями мозга действительно существует. В основе этого сходства лежит тот факт, что как электронная программно–управляемая машина, так и мозг представляют собой самоуправляемые системы, работа которых состоит в обмене информацией (см.
следующий раздел) между отдельными их частями и в преобразовании этой информации.
По своей физической природе, по характеру протекающих в них физических процессов, по своим возможностям и надежности в работе программно–управляемая машина и мозг, конечно, совершенно различны. Но и машина и мозг являются системами, принимающими, перерабатывающими, хранящими и передающими информацию. Некоторые коллективы людей можно рассматривать тоже как системы, принимающие, перерабатывающие, хранящие и передающие информацию.
Информация и сигнал Как было сказано выше, кибернетика есть наука о связи, управлении и контроле в живых организмах, машинах, а также в некоторых коллективах людей.
Это определение требует уточнения. Кибернетика изучает живые организмы и машины исключительно с точки зрения их способности воспринимать определенную «информацию», сохранять ее в «памяти», преобразовывать ее и передавать по «каналам связи».
В кибернетике понятие информации является весьма широким.
Так, читая книгу, читатель воспринимает информацию.
Сообщения, публикуемые в газетах, передаваемые по радио, получаемые человеком из разговора с другими людьми,— являются информацией.
«Сведения» о внешней среде и ее изменениях, получаемые мозгом человека или животного от органов чувств,— являются информацией.
«Указания», получаемые мускулатурой тела человека или животного от мозга, о том, какие движения должны быть произведены, также представляют собой информацию.
Исходные данные задачи, подлежащей решению, вводимые в электронную программно– управляемую машину, равно как и промежуточные или окончательные результаты решения задачи,— также не что иное, как информация.
Органы или приборы, вырабатывающие информацию, передают ее по назначению в виде сигналов.
Среда, служащая для передачи сигналов, называется каналом связи. Например, при передаче телеграмм сигналами служат импульсы электрического тока, а каналом связи — металлический провод с необходимой аппаратурой. При передаче информации путем устной речи сигналами являются звуковые колебания, а каналом связи — воздух.
Сигналы, о которых мы сейчас говорили, представляют собой физические процессы, протекающие в среде, называемой каналом связи, причем характерно для этих процессов именно то, что они распространяются или перемещаются по каналу связи.
Процесс передачи информации может быть весьма сложным. Например, при передаче по радио информация сперва передается в виде звуковых сигналов диктором, говорящим перед микрофоном. В микрофоне звуковые сигналы преобразуются в электрические сигналы. В передатчике радиостанции электрические сигналы преобразуются в электромагнитные колебания — радиоволны. Последние радиоприемником опять превращаются в электрические сигналы, которые динамическим громкоговорителем или телефоном преобразуются снова в звуковые сигналы и лишь теперь достигают нашего уха. Преобразование сигналов, не сопровождающееся изменением содержания информации, которую они несут, называется перекодировкой информации.
Наряду с передачей информации часто приходится наблюдать и хранение ее. Мозг человека обладает способностью запоминать информацию. Речь, произносимую оратором, можно записать на магнитофонную пленку. Свои мысли и неотложные дела мы для памяти привыкли записывать в записной книжке.
Орган или прибор, служащий для хранения информации, называют запоминающим устройством или коротко — памятью.
В памяти информация хранится тоже в виде сигналов. Только в течение всего времени хранения информации эти сигналы за пределы памяти не распространяются.
Чаще всего сигналы, применяемые для «запоминания» информации, представляют собой более или менее устойчивые изменения среды, образующей запоминающее устройство. Так, при использовании в качестве запоминающего устройства ферромагнитной пленки, сигналами являются группы намагниченных участков этой пленки. Запоминание информации человеческим мозгом происходит в результате возникновения устойчивых изменений в определенных его клетках или группах клеток.
Интересно отметить, что иногда передача информации осуществляется путем транспортировки запоминающего устройства, хранящего эту информацию. Каналом связи при этом является совокупность оборудования, с помощью которого осуществляется транспортировка. Примером такой передачи информации может служить почтовая связь.
Возможны также случаи хранения информации путем многократной передачи ее по некоторому каналу связи из одного конца его в другой и обратно (или циркуляции сигналов в замкнутом канале связи). Такой канал связи вместе с устройствами приема и обратной отправки («отражения») сигналов, несущих информацию, представляет собой запоминающее устройство. Примером такого динамического запоминающего устройства может служить запоминающее устройство, построенное из ртутных линий задержки, применяемое в некоторых электронных вычислительных машинах.
Ртутная линия задержки представляет собой трубку, наполненную ртутью. Сигналами, несущими информацию, являются звуковые колебания, возбуждаемые в ртути на одном конце трубки и воспринимаемые на другом. При возврате к первому концу колебания подвергаются усилению и вновь передаются ртути.
Из сказанного видно, что информация может находиться как в состоянии передачи (по каналу связи), так и в состоянии хранения (в памяти). Информация может также подвергаться преобразованиям, на чем мы остановимся в дальнейшем.
Подчеркнем сразу же, что передача и прием информации есть лишь один из видов связи между объектами. Во–первых, не между всякими объектами существует связь, состоящая в передаче информации. Во–вторых, не всякая связь между объектами является обменом информацией.
Мы знаем, что все явления и объекты мира существуют во взаимосвязи. Эта связь бесконечно многообразна. Кибернетика, изучающая лишь один из видов связи—обмен информацией,— не может претендовать и не претендует на то, чтобы быть наукой о всеобщей связи.
Мера количества информации Раздел кибернетики, называющийся теорией информации, изучает информацию с количественной стороны. Это стало возможным благодаря тому, что удалось ввести понятие количества информации.
Рассмотрим систему событий А1, А2…А, обладающую тем свойством, что одно и только одно из событий этой системы должно произойти. Пусть p1, р2,..., рn —соответственно вероятности наступления событий А1, А2,..., Аn (очевидно, p1+p2 +...+pn=1). Система событий А1, А2,...,Ап, рассматриваемых в совокупности с их вероятностями, называется конечной схемой. Конечную схему обозначают символом:
Всякая конечная схема содержит некоторую неопределенность. Известен перечень возможных событий, известна вероятность каждого события, но какое из событий в действительности произойдет — неизвестно.
Сообщение о результате испытания конечной схемы снимает эту неопределенность. Естественно считать, что количество информации, содержащейся в сообщении о результате испытания конечной схемы, равно величине неопределенности, содержащейся в этой конечной схеме. Эту неопределенность условились измерять величиной Здесь a — некоторое положительное число, больше единицы. Ниже будет показано, что выбор числа а равноценен выбору единицы измерения.
Кроме того, принято, что если р=0, то Знак минус в правой части формулы (1.2) взят потому, что все слагаемые ploga p неположительны (вероятность р, если не равна нулю, является положительным числом не больше 1, т. е. loga p будет отрицательным числом или нулем, следовательно, и произведение р loga p будет отрицательным числом или нулем). Таким образом этот знак делает правую часть формулы (1.2) положительной.
Рассмотрим внимательно формулу (1.2) и убедимся в целесообразности выбранного нами способа измерения количества информации.
Предположим, что одно из событий А1, А2,..., Аn является достоверным. Например, событие А1.
Тогда его вероятность будет равна единице, а вероятность каждого из остальных событий будет равна нулю. Конечная схема принимает вид:
Очевидно, такая конечная схема не содержит никакой неопределенности и сообщение о результате ее испытания не будет содержать никакой информации.
Формула (1.2) дает именно этот результат:
Очевидно, наибольшую неопределенность содержит конечная схема, все события которой равновероятны. В случае такой конечной схемы, до ее испытания, труднее всего сделать сколько-нибудь обоснованное предположение о результатах испытания.
Исследуя на максимум величину т как функцию переменных р1, р2,..., рn (эти выкладки здесь не приводятся), легко получить, что своего наибольшего значения т достигает при p1 = p2 =... =pn= n, т. е.
в случае равной вероятности событий, образующих конечную схему. При этом конечная схема принимает вид:
Сообщение о ее испытании содержит количество информации, равное:
Обратим особое внимание на простейший частный случай конечной схемы (1.5), именно на случай, когда n=2: При этом схема состоит из двух событий: А1 и А2. Событие А2, применяя обозначение математической логики, можно записать символом A1 (это читается: не А1). Конечная схема имеет вид:
Сообщение о результате ее испытания содержит количество информации, равное числу:
Если мы положим а = 2 (в последней и во всех предыдущих формулах), то будем иметь:
Тем самым мы выбираем единицу измерения количества информации.
Таким образом, за единицу количества информации принято количество информации, содержащееся в сообщении об испытании конечной схемы, состоящей из двух равновероятных событий.
Эта единица получила название «бид».
Выбранная нами мера количества информации обладает еще тем свойством, что при подсчете с ее помощью количества информации, содержащегося в сообщении об испытании двух независимых между собой конечных схем, получается число, равное сумме количеств информации, содержащихся в сообщениях об испытании каждой из конечных схем в отдельности, т. е., как говорят, мера количества информации обладает свойством аддитивности.
Ограничимся доказательством этого факта для простейшего случая, когда каждая из конечных схем состоит из двух событий. Доказательство в общем случае совершенно аналогично приводимому.
Итак, рассмотрим две конечные схемы:
Сообщения о результатах испытания этих конечных схем содержат соответственно следующие количества информации:
Очевидно, испытание обеих конечных схем (1.8) и (1.9) эквивалентно испытанию новой конечной схемы Каждое событие конечной схемы (1.12) представляет сочетание одного из событий, входящих в конечную схему (1.8), с одним из событий, входящих в конечную схему (1.9). Вероятность наступления такого комбинированного события, как известно, равна произведению вероятностей наступления событий, входящих в комбинацию Подсчитаем количество информации, содержащееся в сообщении об испытании конечной схемы (1.12):
m = – [p1q1 log2 (p1q2) + p1q2 log2 (p1q2) + p2 q1 log2 (p2q1) + p2q2log2 (p2q2)] (1.13) Представляя в этом выражении каждый логарифм произведения в виде суммы логарифмов сомножителей и выполняя затем несложные алгебраические преобразования, получаем:
т = – [ р1q1 log2 p1 + p1q1 log2 q1+p1q2 log2 p1 + p1q2 log2q2+ p2q1 log2 p2 + p2q1 log2 q1 + p2q2 log2 p2 + + p2q2 log2q2] = – (q1 + q2)(p1 log2p1 + p2 log2 p2) – (p1+ p2) (q1 log2 q1+ q2log2q2).
Учитывая условия а также формулы (1.10) и (1.11), получаем:
что и требовалось доказать.
Все сказанное выше убеждает нас в том, что способ измерения количества информации выбран нами целесообразно.
В заключение приведем два примера.
Во многие игры в качестве составного элемента входит метание кости, представляющей кубик, на гранях которого написаны цифры 1, 2, 3, 4, 5, 6.
Пусть конечная схема состоит из шести событий, каждое из которых представляет выпадение одного из указанных чисел при метании кости. Если кость изготовлена из однородного материала с возможной степенью точности, то все события можно считать равновероятными. Конечная схема имеет вид:
Сообщение о результате метания кости содержит следующее количество информации:
т log26 2,585_бидов.
Или предположим, что кость, метания которой производят по-прежнему, имеет форму куба, но на одной из его граней написана цифра 1, а на пяти остальных — цифра 2. Теперь конечная схема состоит из двух событий:
А1 (выпадение цифры 1) с вероятностью 1 и A2 (выпадение цифры 2) с вероятностью 6 :
Сообщение о результате метания кости содержит меньше информации, чем в примере 1, а именно:
Некоторые примеры применения теории информации Многие результаты, полученные методами теории информации, имеют непосредственное практическое применение. Коротко остановимся на некоторых из них.
Количество информации, передаваемой за единицу времени по некоторому каналу связи, называется скоростью передачи информации. Информация передается по каналу связи, как уже говорилось, путем передачи сигналов Сигналы представляют некоторые процессы, протекающие в канале связи. Но канал связи не может быть полностью изолирован от воздействий внешней среды. Эти воздействия могут вызывать в нем процессы той же физической природы, что и сигналы, которые, взаимодействуя с сигналами, вызывают их искажение. Посторонние явления, протекающие в каналах связи и искажающие сигналы, получили название шумов или помех.
Итак, передача информации происходит в условиях наличия шумов, искажающих полезные сигналы.
Иногда искажения сигналов достигают такой степени, что искажается информация, содержащаяся в сигналах. Шумы даже могут быть такими сильными, что сигналы становятся для приемника совершенно неразличимыми.
Надежностью передачи называется вероятность приема неискаженной информации. Весьма интересна доказанная в теории информации теорема, гласящая, что с увеличением скорости передачи ее надежность уменьшается и наоборот,— за счет уменьшения скорости передачи можно повысить ее надежность. Поясним этот результат простым примером.
Предположим, что гражданин Иванов, уезжая и: Москвы в Ленинград, договорился с гражданином Петровым о следующем. Иванову может понадобиться одна и: книг его личной библиотеки. В этом случае Иванов пришлет Петрову телеграмму с указанием названия нужно книги, Петров в квартире Иванова найдет нужную книгу и вышлет ее ему по почте. Проходит некоторое время и Петров получает от Иванова телеграмму следующего содержания: «Алепсей Толстой том 6 Хождение по мукам».
Телеграмма содержит искажение («Алепсей» — вместо «Алексей»), тем не менее содержание ее вполне ясно. Дело в том, что при передаче этой телеграммы количеств информации, приходившееся на единицу времени, был сравнительно невелико.
Но, договариваясь между собой, Иванов и Петров могли поступить так: составить список книг Иванова и против наименования каждой из них поставить какую-нибудь букву. Тогда, вместо приведенной выше длинной телеграммы, Иванов мог послать Петрову телеграмму, состоящую всего из одной буквы (например, из буквы К, если бы эта буква обозначала вышеупомянутую книгу). Скорость передачи информации при пересылке такой телеграммы была бы во много раз больше, чем в первом случае, а надежность гораздо меньше. Искажение телеграммы (прием, например, буквы П, вместо К) полностью изменило бы содержание передаваемой информации. Петров мог бы вместо 6-го тома сочинений Алексея Толстого выслать Иванову, например, Поваренную книгу.
Однако, пользуясь последним способом кодировки, Иванов все же мог значительно повысить надежность передачи информации. Для этого ему было бы достаточно передать телеграмму, состоящую не из одной буквы К, а из ста одинаковых букв К. Искажения отдельных букв такой телеграммы не помешали бы Петрову понять ее содержание. Конечно, необходимо, чтобы Петров заранее знал о способе передачи информации, которым будет пользоваться Иванов.
Приведенный пример, поясняя вышеназванную теорему, кроме того, приводит нас к выводу, что для «понимания» передаваемой информации приемник должен заранее располагать определенными сведениями, «знать» из каких событий состоит конечная схема и как будет закодировано сообщение о результате ее испытания. Действительно, не имея списка книг, в котором против названия каждой книги проставлена определенная буква, Петров не смог бы при втором способе кодировки понять смысла телеграммы Иванова. Точно так же и при первом способе кодировки информации Петров не понял бы телеграммы: «Высылай Двенадцать стульев Ильфа и Петрова», если бы ничего не знал о писателях Ильфе и Петрове. Может быть, вместо нужной книги он переслал бы Иванову в Ленинград дюжину стульев.
Сигналы, хранящиеся в «памяти», также подвержены действиям помех, которые могут искажать их, причем в ряде случаев может искажаться представленная ими информация. Например, записи, произведенные в записной книжке, могут стираться и становиться неразборчивыми.
В случае полного стирания отдельных слов смысл записи может измениться. Судьям и следователям, допрашивающим свидетелей, хорошо известно, как сильно может отличаться то, что запомнил очевидец, от того, что он видел в действительности. Значит человеческая память тоже подвержена влиянию помех.
Немалый интерес представляет также следующая теорема, доказанная в теории информации:
скорость передачи информации по каждому каналу связи имеет максимум, при достижении которого она уже никаким способом не может быть повышена.
Максимум скорости передачи информации по каналу связи получил название пропускной способности канала связи, так как он представляет собой наибольшее количество информации, которое можно за единицу времени передать по каналу.
Последнюю теорему приходится учитывать при проектировании телефонных линий в больших городах и т. п.
При обучении человека различным наукам информация передается извне в его мозг по различным каналам. Во время слушанья лекции таким каналом является слуховой нерв, во время чтения учебника, просмотра научного кинофильма или наблюдения опыта в лаборатории — зрительный нерв. При прохождении практики в лаборатории или на производстве каналами связи для передачи информации могут быть и другие нервы (осязательные, обонятельный, вкусовой и т. д.). При правильном обучении приходится пользоваться одновременно несколькими из этих каналов связи. Любопытно отметить, что наибольшей пропускной способностью, как это показали исследования, обладает слуховой нерв.
Читатель, относящийся к старшему поколению, вероятно, помнит так называемый лабораторный метод обучения, состоявший в том, что студенты изучали науки исключительно путем чтения учебников. Этот метод впоследствии был отменен как не оправдавший себя. Преимущества лекционного метода обучения перед лабораторным в некоторой степени зависят и от того, что пропускная способность слухового нерва как канала связи значительно выше, чем пропускная способность зрительного нерва.
Преобразование информации Преобразование информации осуществляется путем изменения несущих или хранящих ее сигналов.
Мы уже знаем, что существуют преобразования сигналов, не изменяющие содержания представленной ими информации (перекодировка информации). Но возможны преобразования сигналов, сопровождающиеся закономерным изменением содержания отвечающей им информации. Такие преобразования сигналов и информации называют содержательными. Частным видом содержательного преобразования информации является ее логическое преобразование. Примером логического преобразования информации является ее преобразование, выполняемое при решении математических или логических задач.
Предположим, что нам задана информация:
Один гражданин купил 5 м сукна и 3 м сатина, заплатив за покупку 530 руб. Другой гражданин за м сукна и 12 м сатина заплатил 520 руб.
Обозначая буквой х цену 1 м сукна, а буквой у — цену 1 м сатина, мы можем написать:
Эти два уравнения содержат ту же самую информацию, которая прежде была заложена в словесную формулировку задачи. Переход от слов к алгебраическим уравнениям является перекодировкой, а не преобразованием информации.
Умножим первое уравнение на 4 и вычтем из него второе уравнение. Получим:
Разделив обе части этого уравнения на 16, получим:
Подставляя значение х в одно из исходных уравнений, находим:
В результате последних преобразований, произведенных нами над уравнениями (над сигналами), мы получили:
Эти сигналы обозначают информацию: 1 м сукна стоит 100 руб., а 1 м сатина 10 руб.
Мы видим, что исходная информация оказалась преобразованной. Для преобразования информации был необходим запас сведений из алгебры, т. е. для того, чтобы выполнить логическое преобразование информации, необходим некоторый предварительный запас информации.
Описанное здесь преобразование информации выполняется человеческим мозгом по законам логики. С точки зрения логики искомое решение всякой задачи (если эта задача вообще может быть решена) содержится в ee условии, т. е. количество информации, содержащейся в условии задачи, больше, чем ее количество в полученном ответе. Сущность решения задачи состоит в том, что решающий ее человек проводит ряд рассуждений, руководствуясь при этом законами логики, приводящими в итоге к искомому ответу. При этом для преобразования информации, содержащейся в условии задачи, необходимо привлечь дополнительную информацию о правилах этого преобразования. Результат преобразования полностью определяется содержанием исходной информации и законами логики. Отсюда происходит название — логическое преобразование информации.
Однако сказанное выше вовсе не означает, что в счетно–решающих машинах такой же результат может быть достигнут только путем тех же преобразований, которые выполняет человеческий мозг.
Содержательное преобразование информации может выполняться не только по законам логики, но и по другим различным законам. Иногда закон преобразования может быть задан в виде таблицы соответствия между сигналами, несущими исходную информацию, и сигнале ми, отвечающими преобразованной информации. При этом преобразование информации сводится к выбору результата из таблицы на основании поступающих исходных данных. В частном случае такая таблица может быть составлена в процессе эксперимента; например, таблица для получения информации о силе сопротивления воздуха движению самолета по информации о скорости движения самолета относительно воздуха и об атмосферном давлении.
Необходимое преобразование информации может осуществляться также путем вычислений по специально подобранным формулам, заменяющим таблицы, и т. п. В управляющих системах информацию принято различать по назначению, по той роли, которую она выполняет в этих системах. Информацию, поступающую от чувствительного органа (устройства), называют осведомляющей информацией, а информацию, передаваемую управляющим органом (устройством) в управляемые органы (устройства), называют управляющей информацией. При этом говорят, что в управляющем органе происходит преобразование осведомляющей информации в управляющую.
Так, под влиянием внешних воздействий, органы чувств человека вырабатывают осведомляющую информацию, которая в виде сигналов передается по центростремительным нервам в центральную нервную систему. Например, если человек случайно прикоснулся рукой к горячему предмету, происходит описанный только что процесс. Мозг преображает эту информацию в управляющую, которая передается по центробежным нервам мышцам руки. Под воздействием управляющей информации мышцы сокращаются и выводят руку из соприкосновения с горячим предметом. На этом, конечно, работа мозга не прекращается. Из мозга передается управляющая информация мышцам глаз. Глаза направляются на предмет, вызвавший ощущение боли. Из глаз в мозг поступает новая осведомляющая информация.
Одновременно поступает информация и от других органов чувств. Эта информация преобразуется, в частности, и логически, причем используются и запасы информации, хранящиеся в памяти. Если окажется, что ожог вызван загоревшимся предметом, то мозг благодаря преобразованию информации поймет, что случился пожар и пошлет в мышцы управляющую информацию, под воздействием которой они придут в действие, и будут приняты меры к тушению пожара.
Аналогичные процессы преобразования информации происходят и в автоматах, построенных человеком. Например, автомат, выключающий электрическую линию переменного тока при коротком замыкании, построен по схеме, приведенной на рис. 1.
Электрический ток, вырабатываемый динамо–машиной, проходит через витки первичной обмотки трансформатора Тр и через рубильник поступает на линию. Если на линии произошло короткое замыкание, то ток, проходящий через первичную обмотку трансформатора Тр, резко возрастет и вызовет повышение напряжения в его вторичной обмотке.
Трансформатор Тр вырабатывает осведомляющую информацию в виде электрического тока вторичной обмотки. Эта информация поступает в преобразователь информации, состоящий из реле Ре. Реле отбалансировано таким образом, что только при достаточно высоком напряжении, поступающем на его электромагнит, происходит притягивание к последнему рычага реле, и тем самым осуществляется включение электродвигателя М. Двигатель М приходит в действие и выключает рубильник Pу, тем самым выключая линию.
Преобразование осведомляющей информации в управляющую в данном случае происходило в электромагните реле. Осуществлялось оно в виде преобразования сигналов: электрический ток определенного напряжения преобразовывался в магнитное поле определенной силы. Управляющая информация имела вид магнитных сигналов.
Из примеров видно, что управляющий орган представляет собой преобразователь информации. Он подвергает осведомляющую информацию содержательному преобразованию, а затем производит перекодировку полученных результатов таким образом, чтобы сигналы, несущие управляющую информацию, были способны воздействовать на управляемый орган.
Передача информации в виде сигналов всегда сопровождается некоторым расходом энергии.
Количество энергии, необходимое для передачи информации, не зависит от содержания и количества информации, а определяется чувствительностью элемента, принижающего сигналы (информацию), свойствами каналов связи и характером сигналов, используемых для передачи информации.
В тех случаях, когда передача информации производится с целью управления большими количествами энергии (например, для управления атомной энергией), количество энергии, расходуемой на передачу управляющей информации, во много раз меньше количества энергии, которой управляет эта информация. Это обстоятельство с выгодой используется при автоматическом управлении или управлении на расстоянии агрегатами, работа которых связана с расходованием больших количеств энергии.
Необходимо отметить, что приборы или органы, осуществляющие преобразование информации, так же как и каналы связи и запоминающие устройства, подвержены влиянию внешних воздействий, посторонних по отношению к системе, в состав которой они входят. Эти воздействия (помехи) могут вызывать сбои в работе преобразователей информации, приводящие к искажениям выдаваемой ими информации.
Самоуправляемые системы Особый интерес представляют разделы кибернетики, изучающие так называемые самоуправляемые или саморегулирующиеся системы. Такие системы могут быть искусственными, созданными человеком, и естественными, например организмы животных. Некоторые коллективы людей и объединения животных также являются саморегулирующимися системами.
В общем случае можно считать, что саморегулирующаяся система состоит из трех основных элементов: управляемого объекта, воздействующего на внешнюю среду; чувствительного элемента, на который влияют воздействия внешней среды и изменения состояния управляемого объекта, и регулятора или управляющего элемента. Регулятор по возможности должен быть изолированным от непосредственных воздействий внешней среды.
Упрощенная схема самоуправляемой системы приведена на рис. 2.
Чувствительный элемент соединен с регулятором каналом связи I. По этому каналу связи осведомляющая информация, выработанная чувствительным элементом, поступает в регулятор. Здесь происходит ее преобразование в управляющую информацию, которая по каналу связи II передается управляемому объекту.
Необходимо отметить, что между управляемым объектом и регулятором в таких системах возникает так называемая обратная связь, обратное воздействие управляемого объекта на управляющий элемент (регулятор). Происходит это вследствие того, что чувствительный элемент воспринимает изменения состояния управляемого объекта, происходящие под влиянием управляющей информации, и посылает в регулятор осведомляющую информацию об этих изменениях.
Нередко в состав самоорганизующихся систем входит еще четвертый элемент — запоминающий (память).
В наиболее простых случаях чувствительный элемент и управляемый объект могут быть объединены в одно целое. Это имеет место, например, в такой простейшей самоуправляемой системе, как паровая машина с центробежным регулятором скорости.
Эта система как самоуправляемая способна воспринимать только один вид воздействия внешней среды — изменение нагрузки, приложенной к валу машины. Такое изменение нагрузки приводит к изменению скорости вращения вала.
Все остальные воздействия внешней среды остаются «непонятными» для нашей системы. При изменении скорости вращения вала машины изменяется скорость вращения соединенного с ним центробежного регулятора. Информация от машины к регулятору поступает в виде изменения скорости.
Изменение скорости вращения центробежного регулятора приводит к тому, что грузы этого регулятора либо еще больше удаляются один от другого (если скорость возросла), либо сближаются (если скорость уменьшилась). При этом осведомляющая информация, имеющая вид изменений скорости вращения, преобразуется в управляющую информацию, представленную в виде перемещения грузов регулятора.
Грузы регулятора системой рычагов соединены с заслонкой, позволяющей увеличивать или уменьшать приток пара из котла в цилиндры машины.
Изучение самоуправляемых систем интересно, во–первых, потому, что проливает новый свет на ряд до сих пор не изученных вопросов физиологии, биологии, психологии и др. Но главный интерес состоит в том, что без этого невозможно построить сколько–нибудь сложные автоматы, применение которых в промышленности открывает совершенно новые широкие перспективы.
Автоматы, даже такие простые, как описанная выше машина с центробежным регулятором, заменяют собой не только физические, но и некоторые психические функции человека. Например, регулятор, открывающий и закрывающий заслонку паровой машины, выполняет не только функцию руки человека (открывания и закрывания заслонки), но и функцию его внимания, освобождая человека от необходимости непрерывно контролировать число оборотов вала машины.
Исследуя вопросы построения автоматов, выполняющих отдельные психические функции человека, кибернетика встала перед проблемой анализа умственных действий человека, с тем, чтобы разложить их на определенные элементарные преобразования информации.
Возник вопрос — какие виды умственной работы, выполняемой человеком, могут быть возложены на автомат. В поисках ответа на этот вопрос обратили внимание на то обстоятельство, что математика издавна занималась разработкой так называемых алгорифмов. Под алгорифмом при этом понимается четкое предписание, вполне понятное и не допускающее никакого произвола для его исполнителя, определяющее вычислительный процесс. Человек, даже не знающий той области математики, для решения задач которой разработан алгорифм, но понимающий содержащиеся в нем указания и точно их выполняющий, получает искомое решение задачи. Можно сказать; что наличие алгорифма позволяет решать задачи механически.
Для алгорифма характерны следующие три черты.
1. Определенность алгорифма, состоящая в четкости образующих его указаний, их полной понятности для исполнителя и полной однозначности.
2. Массовость алгорифма, состоящая в его применимости не к одной единственной, а к некоторому множеству систем исходных данных. Это значит, что алгорифм должен позволять решать любую задачу из некоторого класса задач, а не какую–нибудь единственную конкретную, задачу.
3. Результативность алгорифма, заключающаяся в том, что алгорифм предназначен для получения по исходным данным определенного отвечающего им результата и для всякой допустимой системы исходных данных всегда I приводит к такому результату.
При этом математика требует, чтобы алгорифм была потенциально осуществимым, т. е. чтобы для любой допустимой системы исходных данных он приводил к искомому результату после выполнения конечного (хотя бы и очень большого) числа «шагов» (операций).
В качестве примера алгорифма можно привести известный алгорифм Эвклида, разработанный для решения задач следующего вида. Даны два натуральных числа а и b (т. е. два положительных целых числа).
Требуется найти их общий наибольший делитель.
Алгорифм Эвклида может быть сформулирован в виде предписания, состоящего из четырех указаний.
Указание I. Проверь, какое из соотношений справедливо для чисел а и b.
Перейди к следующему указанию.
Указание II. Если а b, то любое из этих чисел дает искомый ответ. Остановись. Если же а b, то перейди к следующему указанию.