WWW.DISS.SELUK.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА
(Авторефераты, диссертации, методички, учебные программы, монографии)

 

Pages:     || 2 | 3 |

«ДИНАМИКА ИССЛЕДОВАТЕЛЬСКИХ ПРОГРАММ В ОБЛАСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ДИССЕРТАЦИЯ на соискание ученой степени кандидата философских наук ...»

-- [ Страница 1 ] --

АКАДЕМИЯ НАУК СССР

ИНСТИТУТ ИСТОРИИ ЕСТЕСТВОЗНАНИЯ И ТЕХНИКИ

На правах рукописи

Герович Вячеслав Александрович

ДИНАМИКА ИССЛЕДОВАТЕЛЬСКИХ ПРОГРАММ

В ОБЛАСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

ДИССЕРТАЦИЯ

на соискание ученой степени кандидата философских наук

специальность 09.00.08. – философские вопросы естествознания и техники

Научный руководитель: доктор философских наук А.А. Печенкин Москва – 1991 2

ОГЛАВЛЕНИЕ

Введение Глава 1. Методология науковедческого анализа области искусственного интеллекта 1.1. Область искусственного интеллекта как объект науковедческого анализа 1.1.1. Постановка проблемы 1.1.2. Искусственный интеллект: инженерия или наука? 1.1.3. Гносеологическая характеристика области 1.2. Анализ применимости различных схем развития науки к истории искусственного интеллекта 1.2.1. Общая характеристика логико-методологических схем К. Поппера, Т. Куна и И. Лакатоса 1.2.2. Парадигмы в истории искусственного интеллекта 1.2.3. Научно-исследовательские программы в истории искусственного интеллекта 1.3. Характеристика адекватной модели развития области 1.3.1. Сходство со схемой И. Лакатоса 1.3.2. Отличительные особенности модели Глава 2. Историческая динамика области искусственного интеллекта 2.1. Истоки и зарождение исследовательских программ 2.1.1. Кибернетический контекст 2.1.2. Зарождение исследовательских программ 2.2. 1960-е годы: смена задач 2.2.1. Кризис "традиционного" искусственного интеллекта 2.2.2. Искусственный интеллект в естественных условиях 2.3. 1970-е годы: конкуренция исследовательских программ 2.3.1. Проект DARPA 2.3.2. Раскол научного сообщества 2.4. 1980-е годы: наука или коммерция? 2.4.1. Инженерный бум 2.4.2. "Булевская" и "небулевская" исследовательские программы Глава 3. Роль рефлексии ученых в развитии исследований по искусственному интеллекту 3.1. Особенности рефлексии научного сообщества 3.1.1. Методологические проблемы анализа научной рефлексии 3.1.2. Моделирование научного познания 3.1.3. Модели рефлексии 3.2. Виды деятельности и типы рефлексии в области искусственного интеллекта 3.3. О роли вопроса "Может ли машина мыслить?" 3.3.1. Мировоззренческий смысл 3.3.2. Практический смысл 3.3.3. Гносеологический смысл Заключение Список литературы

ВВЕДЕНИЕ

Актуальность темы определяется значимостью исследований по искусственному интеллекту, находящихся на переднем крае информатики и комплекса когнитивных наук.

Проблема искусственного интеллекта является поистине уникальной по широте и разнообразию привлекаемых для ее решения научных знаний и инженерных приемов, психологических моделей и философских идей.

Являясь продуктом сложных процессов интеграции и дифференциации в современной науке, исследования по искусственному интеллекту оказывают непосредственное воздействие на смежные области (психологию, логику, эпистемологию, лингвистику) и способствуют возникновению новых дисциплин – когнитивной психологии, компьютерной лингвистики. Поэтому анализ динамики области искусственного интеллекта имеет не просто историко-научный интерес, а является актуальным для изучения общих тенденций развития современной науки.

Актуальность настоящей работы связана также с «неклассическим» характером искусственного интеллекта как научно-технической дисциплины, что требует выработки нового методологического инструментария науковедческого анализа, отвечающего современному этапу взаимодействия науки и инженерии.

Цель и задачи работы. Целью диссертационного исследования является разработка методологической схемы науковедческого анализа современных неклассических научнотехнических дисциплин на примере области искусственного интеллекта и применение данной схемы к исторической динамике этой области. Для достижения указанной цели решались следующие задачи:

• выявление основных методологических проблем науковедческого анализа области искусственного интеллекта;

• анализ применимости известных логико-методологических схем к области искусственного интеллекта;

• выработка адекватной науковедческой модели;

• историко-научное описание динамики области с использованием разработанной • анализ особенностей рефлексии научного сообщества искусственного интеллекта и ее влияния на развитие исследований.

Теоретико-методологическая основа исследования. Диссертационная работа базируется на подходах современной логики, методологии и философии науки, общего науковедения. Используются, в частности, логико-методологические схемы развития науки, разработанные И. Лакатосом и Т. Куном [Лакатос, 1978; Кун, 1975], науковедческие модели и концепции, предложенные Б. Г. Гороховым, Н. И.

Кузнецовой, А. А. Печенкиным, А. И. Ракитовым, М. А. Розовым [Горохов, 1984;

Кузнецова, 1987; Печенкин, 1984; Ракитов и др., 1986; Ракитов, 1987; Розов, 1977, 1986, 1987].

В основу диссертационного исследования заложены представления о тесной взаимосвязи когнитивного и социального аспектов развития науки, о механизмах и факторах формирования научных областей и дисциплин (в том числе современных неклассических научно-технических дисциплин), о роли научного сообщества и его рефлексии в динамике развития исследований.



В качестве единицы описания развития области выбрано понятие «исследовательской программы», являющееся модификацией «научной исследовательской программы» И. Лакатоса с учетом специфики искусственного интеллекта как неклассической научно-технической дисциплины. В соответствии с данной методологической схемой развитие области изучается в двух планах – как эволюция самих программ и как конкуренция между разными программами.

Соотношение научного и инженерного аспектов исследований по искусственному интеллекту анализируется на базе представлений о стирании граней между исследованием и проектированием в современных неклассических научно-технических дисциплинах и о рефлексивной симметрии предметного и рецептурного знания.

Научное сообщество рассматривается как рефлектирующая система, способная перестраивать свою деятельность в соответствии с выработанным самоописанием.

Проводится четкое методологическое различение историко-научных событий, происходящих в деятельности ученых, и их отражения в рефлексии. Анализ рефлексии, ее особенностей и противоречий лежит в основе выработки адекватной логикометодологической схемы науковедческого анализа области.

Обьект исследования, хронологические рамки и источники. В соответствии с данной методологией в качестве объекта анализа было выбрано единое, связанное тесными взаимными коммуникациями национальное научное сообщество. Поскольку сами исследования по искусственному интеллекту зародились в США, и это научное сообщество является и поныне общепризнанным лидером в данной области, то именно оно было выбрано как обьект науковедческого анализа и историко-научного описания. В ряде случаев изложение дополнено материалами, касающимися исследований по искусственному интеллекту в СССР, Западной Европе и Японии.

Для исследования выбраны широкие хронологические рамки – с середины 1950-х годов по настоящее время. При этом история области искусственного интеллекта условно разделена на четыре этапа:

1950-е годы: зарождение исследовательских программ, первая конференция по искусственному интеллекту, организация лабораторий, первые результаты.

1960-е годы: начало чтения спецкурсов в университетах, бурный рост числа публикаций, расширение круга исследовательских программ.

1970-е годы: организация международных конференций, издание учебников, выпуск специализированных журналов: завершение становления искусственного интеллекта как научно-технической дисциплины.

1980-е годы: превращение систем искусственного интеллекта в коммерческий товар;

новая фаза взаимодействия науки и инженерии.

На столь протяженном историческом отрезке были выбраны для рассмотрения лишь самые узловые моменты и события, важные с точки зрения развития и конкуренции исследовательских программ.

Круг первичных источников по истории искусственного интеллекта необычайно широк. Достаточно сказать, что библиография, составленная М. Минским в 1963 г. и дополненная в русском издании 1967 г., уже насчитывает 1185 названий. Более 1500 публикаций 1980-х гг. содержатся в библиографии трехтомного «Справочника по искусственному интеллекту» [Искусственный..., 1990]. О публикациях 1970-х гг. дают представление выпуски «Аннотированного указателя литературы по искусственному интеллекту» [Искусственный..., 1977-1987]. Подробная библиография содержится в англоязычных справочных изданиях [Encyclopedia..., 1987; Handbook..., 1981-1982], в компьютерной базе данных [Scientific..., 1985].

В диссертационном исследовании использованы ключевые первичные публикации (статьи в журналах, труды конференций) и более широко – вторичные источники (обзоры, учебники, монографии, материалы философских дискуссий), в более явной форме выражающие рефлексию научного сообщества.

Новизна работы. Обзор историографии. Истории искусственного интеллекта посвящена не очень обширная литература, что выглядит вполне естественным, учитывая относительную молодость самой области. Непосредственно на эту тему написано несколько монографий [Бирюков, 1985; Поспелов Д. А., 1982; Boden, 1977; Haugeland, 1985; Johnson, 1986; McCorduck, 1979; Pratt, 1987] и ряд статей [Поспелов Г. С., 1980;

Фейгенбаум, 1973; Шиклошши, 1973; Шрейдер, 1990; Cohen et al., 1988; Newell, 1983]. В то же время довольно велик круг работ, где встречаются отдельные важные исторические и методологические замечания.

Часть историографии посвящена в основном предыстории исследований по искусственному интеллекту, некоторые другие работы носят научно-популярный характер. Основной же массив исторических публикаций принадлежит либо самим специалистам по искусственному интеллекту, либо философам, интересующимся проблематикой мышления. Практически отсутствуют исследования философов науки, в которых анализировалась бы конкретная деятельность ученых, изучался искусственный интеллект как исследовательская область, а не сама проблема искусственного интеллекта.

Наукометрические исследования, начатые Ж.-П. Куртьелем и Дж. Лоу с применения метода совместной встречаемости слов в литературе по искусственному интеллекту [Courtiel et al., 1989] находятся еще на ранней стадии развития.

Многие исторические и обзорные описания области искусственного интеллекта сфокусированы исключительно на успехах исследований (другие – лишь на неудачах);

выбор материала явно субъективен и не дает полной картины развития области.

Важной особенностью большинства описаний области искусственного интеллекта является первоначальная разбивка исследований по подзадачам (общение на естественном языке, игры, распознавание зрительных образов и т. д. ) и последующее изложение каждого раздела как независимого направления исследований [Минский, 1966; Поспелов Г. С. и др., 1974, 1975; Фейгенбаум, 1973]. При этом упускается из виду область искусственного интеллекта как целостный объект анализа. Дело в том, что один и тот же подход часто применяется при решении разных подзадач; действуют общие концептуальные установки, связывающие исследования по искусственному интеллекту в единый поток. Если описание «по подзадачам» еще способно дать синхронический срез, «мгновенный портрет» дисциплины, то для отображения диахронического измерения, исторической динамики необходим иной подход.

Как заявил один из ведущих специалистов по искусственному интеллекту А.

Ньюэлл, «в конце концов мы получим настоящую историю искусственного интеллекта, написанную с той объективностью, на которую способны историки науки. Но это время определенно еще не наступило» [Newell, 1983, р. 187]. Действительно, строго говоря, до настоящего времени область искусственного интеллекта не имеет ни подробного фактологического историко-научного описания, ни гносеологического описания, основанного на применении науковедческих аналитических средств. Более того, до сих пор не были сформулированы даже методологические основания для такого описания и анализа.

В данной диссертационной работе предлагается определенная методология и делается попытка ее применения к описанию ключевых моментов истории искусственного интеллекта и к построению гносеологического «портрета» этой области исследований.

На защиту выносятся следующие положения:

1. Область искусственного интеллекта как объект науковедческого исследования обладает следующими особенностями:

• результаты исследований по искусственному интеллекту «двойственны»: они могут рассматриваться и как научное знание, и как инженерный проект;

• предмет исследований имеет сложную двумерную структуру: это «интеллектуальное пространство» проблем – методов;

• граница области искусственного интеллекта с техникой программирования размыта, и элемент инженерии присутствует в любой теоретической • быстрый темп исторической динамики области рождает определенное отставание рефлексии научного сообщества от деятельности отдельных • мировоззренческий аспект проблемы искусственного интеллекта оказывает непосредственное воздействие на развитие конкретных научных 2. Логико-методологические схемы анализа развития науки, предложенные И.

Лакатосом и Т. Куном, в их традиционной форме неприменимы к описанию области искусственного интеллекта.

3. Адекватная науковедческая модель для анализа области искусственного интеллекта включает модифицированную методологию «исследовательских программ» И.

Лакатоса, где уточняются понятия «жесткого ядра», «защитного пояса» и «позитивной эвристики» и переопределяются критерии прогресса и регресса программ. Роль «жесткого ядра» играет исходная модель мышления, почерпнутая из смежной научной области, «защитного пояса» – ее конкретная реализация в виде компьютерной программы, а «позитивная эвристика» включает круг интеллектуальных проблем из той же смежной области и набор релевантных программных средств.

4. Критерий прогресса исследовательских программ связан с объемом «интеллектуального пространства», в котором «движутся» программы. При этом вырождается та исследовательская программа, что охватывает уже известные проблемы и методы, а прогрессирует программа, расширяющая само «интеллектуальное пространство» за счет новых проблем и методов.

5. В области искусственного интеллекта функционируют, конкурируя, пять исследовательских программ:

• логистическая (использующая исходную модель «мышление – это • эвристическая (основанная на психологической модели мышления как • коннекционистская (использующая нейрофизиологическую гетерархическую • эволюционная (базирующаяся на биологическом механизме случайных мутаций и естественного отбора);

• когнитивная (использующая эпистемологическую модель «мышление – это 6. В исторической динамике взаимодействие программ развивалось по следующей схеме:

В 1950-е годы, когда возникли первые четыре исследовательские программы, разнообразие поставленных ими интеллектуальных задач было столь велико, что все программы прогрессировали, не испытывая конкуренции.

В 1960-е годы «традиционные» исследовательские программы испытали кризис при переходе к широкому классу реальных, а не лабораторных задач. Явно прогрессировала лишь новая, возникшая в эти годы когнитивная программа.

В 1970-е годы резко проявилось расхождение научных и инженерных критериев оценки. Если в инженерной области большего успеха добилась эвристическая программа, то в научной – когнитивная.

В 1980-е годы логистическая, эвристическая и когнитивная программы стали в основном поставлять инженерные изделия на коммерческий рынок, а научный прогресс ждал коннекционистскую программу.

7. Рефлексия специалиста по искусственному интеллекту обладает следующими особенностями:

• ученый, принадлежащий к неклассической научно-технической дисциплине, по специфике своей работы обязан занимать методологическую, или «метарефлексивную» позицию;

• рефлексия специалиста входит в содержание его собственной деятельности:

он анализирует свою работу, строя модели научного познания и рефлексии для систем искусственного интеллекта.

8. Сложная, противоречивая картина рефлексии научного сообщества искусственного интеллекта определяется следующими факторами:

• комплексной структурой предмета исследования («интеллектуального • полифункциональностью самих исследований;

• разнообразием процедур рефлексии.

9. Дискуссия по проблеме «Может ли машина мыслить?» оказывает влияние на деятельность ученых в нескольких аспектах:

• мировоззренческом: ставит моральные вопросы об этичности передачи машинам некоторых интеллектуальных функций и трактовки самого человека как машины, перерабатывающей информацию;

• практическом: во многом определяет выбор терминологии, решаемых задач, используемых методов и критериев оценки систем;

• гносеологическом: стимулирует поиски неантропоморфного определения Научно-практическая значимость работы определяется тем, что в ней впервые разработана специализированная методологическая схема науковедческого анализа области искусственного интеллекта и дана целостная картина исторической динамики данной области.

Результаты диссертационного исследования могут быть использованы для научно обоснованной оценки современного состояния и перспектив развития области искусственного интеллекта, в последующих исследованиях ее истории. В обобщенном виде предложенная методологическая схема может применяться при анализе других неклассических научно-технических дисциплин, использоваться в работах по философии и методологии науки. Материалы диссертации могут служить источником при разработке и чтении спецкурсов по философским проблемам современного естествознания, науковедению, истории науки.

Структура диссертации обусловлена целями и методологией исследования.

Работа состоит из введения, трех глав, заключения и списка литературы.

В первой главе – «Методология науковедческого анализа области искусственного интеллекта» – дается характеристика особенностей области искусственного интеллекта и методологических проблем ее анализа. Известная методологическая схема описания развития науки, данная И. Лакатосом, корректируется с учетом специфики исследуемой области.

Во второй главе – «Историческая динамика области искусственного интеллекта» – предложенная схема развития и конкуренции исследовательских программ накладывается на исторический материал. Узловые моменты в развитии исследований по искусственному интеллекту получают свое объяснение в рамках данной методологической схемы.

В третьей главе – «Роль рефлексии ученых в развитии исследований по искусственному интеллекту» – рассматриваются выработанные в области искусственного интеллекта модели научного познания и рефлексии и исследуется их взаимосвязь с рефлексией ученых над собственной деятельностью. Анализируется влияние на деятельность ученых дискуссии по проблеме «Может ли машина мыслить?» в ее мировоззренческом, практическом и гносеологическом аспектах.

Список литературы включает 220 названий.

Апробация работы. Основные положения и результаты диссертации были апробированы на конференциях «Мировоззренческие и методологические проблемы компьютеризации современной науки» (Обнинск, 1986), «Методологические проблемы взаимосвязи фундаментальных исследований и разработки интенсивных технологий»

(Обнинск, 1987), Всесоюзном семинаре «Формы представления знаний и творческое мышление» (Новосибирск, 1989), IV чтениях памяти акад. В. М. Кедрова (Одесса, 1990), XXXII и XXXIII научных конференциях аспирантов и молодых специалистов по истории естествознания и техники (Москва, 1990, 1991). Опубликованы тезисы выступлений [Герович, 1989, 1990а, 1990в] и препринт [Герович, 1990б].

Глава 1. МЕТОДОЛОГИЯ НАУКОВЕДЧЕСКОГО АНАЛИЗА ОБЛАСТИ

ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

1. 1. Область искусственного интеллекта как объект науковедческого анализа 1. 1. 1. Постановка проблемы Исследования по искусственному интеллекту представляют собой в высшей степени необычный и интересный для науковедческого анализа объект. Характеризуя становление информационной науки, сердцевиной которой является искусственный интеллект, А. И.

Ракитов писал: "В наше время можно наблюдать, как различные разделы информатики, машинной лингвистики, когнитивной психологии, эпистемологии, математической логики, теории автоматов, различных разделов физики, математики и т. д., развивавшиеся ранее в рамках изолированных научных дисциплин, выделяются из их состава и, постепенно трансформируясь, вступая в тесные взаимодействия, превращаются в совершенно новую систему знаний, беспрецедентную с точки зрения всей предшествующей истории науки. Я даже склонен думать, что благодаря этому влиянию мы в недалеком будущем сможем стать современниками и очевидцами фундаментальной реорганизации всего научного знания. Именно это обстоятельство должно сейчас находиться в центре внимания историков и методологов науки, именно оно может и должно дать материал для построения новых широких науковедческих и историконаучных концепций функционирования и развития науки в условиях компьютерной революции" [Ракитов, 1987, с. 38-39].

В данной главе мы остановимся на тех проблемах, с которыми сталкивается науковед, пытаясь применить к анализу области иcкусcвенного интеллекта свой обычный инструментарий. На наш взгляд, корень этих проблем – в специфике изучаемого объекта, и для успешного исследования необходимо развитие самих аналитических средств, введение новых моделей.

Внешне история искусственного интеллекта выглядит вполне благополучно. За точку отсчета единодушно принимается 1956 год, когда в рамках Летнего исследовательского проекта в Дартмутском колледже (США) собралось несколько ученых, составивших костяк нового направления. Большой научный и общественный резонанс, который получили первые работы по искусственному интеллекту, привлек к ним повышенное внимание и способствовал притоку ученых из смежных областей.

В 1957 г. открылась первая лаборатория искусственного интеллекта в Массачусетском технологическом институте, в 1963 – в Стенфордском университете. В конце 1960-х – начале 1970-х гг. появились первые учебники по искусственному интеллекту, началась целенаправленная подготовка кадров в университетах.

В те же годы складываются устойчивые формы коммуникации, связывающие ученых в научное сообщество: с 1969 г. каждые два года созываются Международные объединенные конференции по искусственному интеллекту, с 1970 г. издается международный журнал "Artificial Intelligence". Впоследствии число конференций и журналов многократно умножилось. В настоящее время за искусственным интеллектом закрепилась репутация переднего края компьютерной науки.

В то же время для многих ведущих ученых вопрос о предмете и целях их исследований был и остается проблематичным. Видный специалист по искусственному интеллекту, автор одного из первых учебников, профессор факультета психологии университета в Сиэтле Эрл Хант в 1975 г. так описывал состояние дел: "Если бы физики или химики взялись дать абстрактные определения своих областей знания, то вы скорее всего не нашли бы разногласий ни среди тех, ни среди других. Вряд ли бы обнаружилось такое единодушие, если бы пришлось собрать вместе разных ученых, занимающихся искусственным интеллектом... Оказалось, что существует содержательная область знаний, общие принципы которой трудно выделить. Проблема, по-видимому, заключается в определении понятия интеллекта" [Хант, 1978, с. 11-12]. Даже сам "отец искусственного интеллекта", считающийся автором этого термина, организатор Дартмутского проекта, глава лаборатории искусственного интеллекта в Стенфордском университете Джон Маккарти затруднялся в ответе на вопрос, что же такое "искусственный интеллект": "Я думаю, что определение понятия интеллекта – это составная часть теории интеллекта, а я совсем не готов предложить такую теорию" [Дискуссии..., 1978, с. 38]. В том же 1975 году ту же проблему, что и Э. Хант, рассматривали ведущие отечественные специалисты Г. С.

Поспелов и Д. А. Поспелов. Среди ученых, писали они, "нет единого мнения о предмете их занятий. Что понимать под искусственным интеллектом, каково его отношение к интеллекту человека, где проходят границы, отделяющие интеллектуальную деятельность от неинтеллектуальной? На эти вопросы пока нельзя ответить со сколько-нибудь приемлемой полнотой" [Поспелов Г. С. и др., 1975, с. 26]. В последнее время число таких высказываний несколько убавилось, но это произошло не из-за прояснения ситуации, просто научное сообщество, по-видимому, смирилось с такой имманентной неопределенностью.

Конечно, область искусственного интеллекта не осталась вовсе без характеристики;

ученые вынуждены были принять те или иные рабочие формулировки. В определениях не было недостатка, можно даже сказать, что их накопилось слишком много, ибо выявилось больше противоречий между ними, чем сходств. Сам по себе этот материал – вербализованная рефлексия ученых – является ценнейшим свидетельством об основном объекте нашего анализа – исследовательской области искусственного интеллекта.

Анализируя корни противоречий в рефлексии, выявляя специфику исследований по искусственному интеллекту, мы поймем, что эта область и не могла иметь четкого и стройного самоописания, что эта неопределенность, как ни странно, действительно имманентна.

1. 1. 2. Искусственный интеллект: инженерия или наука?

Традиционно инженерия и наука различаются по целям, которые при этом преследуются. Цель инженера – разработка проекта, критерии оценки которого – реализуемость и эффективность. Ученый же добывает знание, оцениваемое на истинность или ложь, строит модели, заботясь об их адекватности исследуемым объектам. К знанию бесполезно подходить с меркой эффективности, так же как к проекту – с попыткой доказать его "истинность". Если данная ситуация представляется совершенно ясной для "образцовых" научных дисциплин типа физики, то в случае компьютерной науки возникают неожиданные трудности.

Модели мышления, которые строятся в искусственном интеллекте, реализуются в виде компьютерных систем, выполняющих соответствующие интеллектуальные функции.

Чем является такая система – знанием о том как мыслит человек (или некоторое абстрактное разумное существо) или же проектом "интеллектуальной машины"?

Оценивать этот продукт по критерию "истинно–ложно " или по критерию "эффективно– неэффективно"? От ответа на этот вопрос зависит квалификация искусственного интеллекта как научной или инженерной дисциплины и, соответственно, выбор подходящего инструментария науковедческого анализа.

Фундаментальная проблема заключается в том, что в данном случае ответ на этот вопрос субъективен, он зависит от "внутренней" цели, которую ставит перед собой каждый конкретный исследователь. Ибо объективно система искусственного интеллекта может выступать и в качестве научного продукта, и как инженерная разработка.

Коль скоро мнение о характере исследований по искусственному интеллекту субъективно, то сколько ученых – столько и мнений. Мы соберем это разнообразие в несколько групп, объединяющих близкие точки зрения, и попытаемся найти в природе исследований конкретные причины, обуславливающие именно такой набор мнений. Явно выделяется пять основных точек зрения на данную проблему:

1) Искусственный интеллект – набор различных научных и инженерных дисциплин;

2) Искусственный интеллект – инженерия;

3) Искусственный интеллект – наука;

4) Искусственный интеллект – и наука, и инженерия одновременно;

5) Искусственный интеллект – не наука и не инженерия.

Оказывается, что такой немыслимый по противоречивости спектр мнений о характере исследований целиком заполняется высказываниями ученых. Проиллюстрируем это на конкретных примерах.

Первая точка зрения наиболее проста и состоит в попытке обойти вышеозначенные трудности. Научная и инженерная компоненты одних и тех же исследований при этом разделяются и как бы обособляются в самостоятельные дисциплины. Э. Рич, например, считает, что в искусственный интеллект входят "как научные, так и инженерные дисциплины" [Rich, 1987, р. 9]. Более подробно ту же мысль излагает Дж. Слэйгл:

"Исследования в области 'искусственного интеллекта'... имеют двоякую цель: выяснение сущности естественного (человеческого) интеллекта и использование машинного интеллекта для приобретения новых знаний и решения интеллектуально-трудных задач...

Первую цель преследует психолог. Он конструирует в виде программы для вычислительной машины модель определенного поведения, рассматриваемого как человеческий интеллект... Исследователь, ставящий перед собой вторую цель, заинтересован лишь в синтезе интеллектуального поведения и не заботится о том, использует ли вычислительная машина методы, которыми пользуются люди" [Слэйгл, 1973, с. 13-14]. Интересно, что такой же точки зрения придерживается и известный английский критик искусственного интеллекта сэр Джеймс Лайтхилл. Правда, он делает отсюда вывод о том, что все, происходящее в области искусственного интеллекта, с таким же успехом могло бы протекать отдельно в исследованиях по вычислительной технике, теории управления и психологии, и нет никакой необходимости в "перемычке", связывающей ряд уже сложившихся дисциплин.

Вторая группа высказываний принадлежит специалистам по искусственному интеллекту, считающим себя чистыми инженерами. Один из ведущих сотрудников группы искусственного интеллекта Стенфордского исследовательского института Нильс Нильсон высказался на этот счет совершенно определенно: "Моя точка зрения состоит в том, что искусственный интеллект представляет собой... инженерную дисциплину, поскольку его первоначальной целью является создание конструкций" [Нильсон, 1973, с.

7]. Аналогично мнение видного отечественного специалиста Э. В. Попова:

"Искусственный интеллект – инженерная дисциплина, предназначенная для разработки машин и программ, способных к деятельности, называемой интеллектуальной, если она выполняется людьми" [Искусственный..., 1979, № 4, с. 68]. Следует отметить, что эта точка зрения, особенно в последнее время, заметно количественно преобладает.

Достаточно привести сделанное в 1984 году горькое признание представителя оппонирующего лагеря, главы школы искусственного интеллекта в Йельском университете Роджера Шенка: "Я всегда больше ориентировался на моделирование человеческого разума, чем другие; меня занимает воспроизведение процессов человеческого мышления. Я больше интересуюсь людьми, чем машинами, и это ставит меня вне большинства сообщества искусственного интеллекта [Цит. по: Johnson, 1986, p.

179].

В третьей группе мнений наблюдается внутренний раскол по вопросу о том, исследуется ли в искусственном интеллекте сугубо человеческий интеллект или же выявляются некие общие принципы мышления, не обязательно связанные с человеческим субъектом. Мнение первой "подгруппы" выразил, в частности, Р. Шенк: "Область науки, называемая "Искусственный интеллект", занимается изучением самых таинственных вопросов человеческого существования. Какова природа мышления? Какие процессы происходят в нашем организме, когда мы думаем, чувствуем, видим, понимаем?

Возможно ли в принципе понять, как работает наш мозг?" [Шенк и др., 1987, с. 15]. Эту же точку зрения разделяют основатели лаборатории искусственного интеллекта в Университете Карнеги-Меллона, одни из "пионеров" области, участники Дартмутского проекта Алан Ньюэлл и Герберт Саймон. По мнению Ньюэлла, искусственный интеллект является, по сути дела, теоретической психологией, подобно тому, как математическая теория дифференциальных уравнений играет роль теоретической физики. "Теории когнитивной психологии должны быть выражены в виде систем искусственного интеллекта" [Newel 1, 1970, р. 368]. Более развернуто формулирует свое кредо Саймон:

"Можно написать программы, которые, используя процессы манипуляции нечисловыми символами, решают задачи, требующие от человека размышлений и обучения. Подобные программы могут быть названы теориями, в буквальном смысле этого слова, соответствующих мыслительных процессов. Эти теории допускают проверку многими различными способами. Среди этих способов можно отметить сравнение символического поведения вычислительной машины, выполняющей данную программу, с символическим поведением человека, когда и машина, и человек решают одну и ту же задачу" [Дискуссии..., 1970, с. 22].

Для второй "подгруппы" характерно высказывание философа М. Рингля, считающего целью искусственного интеллекта как науки создание общей теории интеллекта, включающей в себя теорию человеческого интеллекта [Ringle, 1979, p. 13].

Нельзя не отметить, что эта точка зрения приобретает все большую привлекательность для специалистов, осознающих ограниченность чисто инженерного подхода, но избегающих "психологизма", связанного с моделированием сугубо человеческого процесса мышления. Еще в 1971 г. Н. Нильсон уверенно заявлял, что "в поисках теории искусственного интеллекта смысла не больше, чем в поисках, скажем, теории гражданского строительства. Вместо единой общей теории имеется ряд теоретических дисциплин, которые сюда относятся и которые должны изучаться теми, кто выбирает искусственный интеллект своей специальностью. К таким дисциплинам относятся математическая логика, структурная лингвистика, теория вычислений, теория информационных структур, теория управления, статистическая теория классификации, теория графов и теория эвристического поиска" [Нильсон, 1973, с. 7]. Однако уже в г., на IV конгрессе Международной федерации информационной обработки (IFIP) в Стокгольме, он признал существование собственной "территории" искусственного интеллекта: "В фундаментальном смысле искусственный интеллект есть наука о знании, т.е. наука о том, как представлять, получать и использовать знание" [Nilsson, 1974, р. 7].

Более того, он объявил искусственный интеллект наукой, а не инженерией, как раньше!

Где произошел этот сдвиг: в реальной истории дисциплины или только в рефлексии отдельного исследователя? Мы еще вернемся к этому вопросу, ибо решить его можно, лишь выработав адекватную модель искусственного интеллекта как объекта науковедческого анализа. Тем временем продолжим рассмотрение точек зрения на характер исследований в данной области.

Согласно четвертой группе мнений, научная и инженерная компоненты исследований присутствуют одновременно и неотделимы друг от друга. Американский исследователь науки Джордж Джонсон так характеризует особенности области искусственного интеллекта: "Разделение между чистым и не прикладным – не столько раскол, сколько полярность – напряжение, которое движет поле. Наука и технология всегда играли друг против друга. Теории ведут к приложениям, чьи недостатки предлагают направления дальнейших исследований. Старые науки типа физики имели время разделиться на теоретическую и прикладную части. Искусственный интеллект же возник только сейчас, и он так быстро развивается, что граница между наукой и инженерией часто расплывается" [Johnson, 1986, р. 28]. Такая ситуация резко осложняет проблему оценки систем искусственного интеллекта. Директор лаборатории интеллектуальных систем компании "Ксерокс" Дж. С. Браун также сетовал на то, что из-за "молодости" исследовательской области нельзя оценить, является ли данная программа теорией разума или только удачным инженерным творением. Если система демонстрирует интеллектуальное поведение, то это происходит из-за адекватности научной теории этого поведения или благодаря искусству программирования? Программистская техника может быть достаточной для генерирования определенного поведения, но это не означает, что интеллектуальная система должна с необходимостью работать именно таким образом [Ibid., р. 241-242]. Данное понимание взаимодействия научной и инженерной компонент исходит из представления об иерархической структуре исследования: компоненты работают вместе, и каждая выполняет свою часть общего дела. Та же идея связи науки и инженерии у Р. Бенерджи, автора первого учебника по искусственному интеллекту, выглядит совсем иначе. Анализируя отдельные работы, пишет он, "в каждом конкретном случае трудно сказать, является ли это попыткой моделирования мыслительного процесса или попыткой решения некоторой задачи" [Бенерджи, 1972, с. 17]. При этом одну и ту же систему искусственного интеллекта можно рассматривать, то как плод инженерии, то как научный продукт. Наука и инженерия выглядят как две стороны одной медали, одного процесса, а не его составные части.

Последняя группа высказываний о природе искусственного интеллекта обязана своим рождением в основном профессиональным критикам этой области, среди которых особой непримиримостью выделяется американский философ Х. Дрейфус. Еще в 1965 г.

он написал работу "Алхимия и искусственный интеллект", позднее переработанную в книгу "Чего не могут вычислительные машины?" [Дрейфус, 1978]. Дрейфус проводит прямую аналогию между областью искусственного интеллекта и алхимией, между поисками моделей мышления и философского камня, упрекая исследователей искусственного интеллекта в игнорировании научных критериев проверки результатов. С ним солидаризуется профессор факультета психологии Массачусетского технологического института Дж. Вейценбаум, автор нашумевшей диалоговой системы "Элиза", ловко создававшей иллюзию "понимания" естественного языка. Подозревая, повидимому, наличие подобных трюков и в других системах искусственного интеллекта, он пишет: "Ньюэлл, Саймон, Шенк и Виноград просто заблуждаются относительно природы тех задач, "решением" которых они, по их мнению, занимаются. Они... выдвигают "общие теории", являющиеся, в конечном счете, пустыми эвристическими лозунгами, а затем провозглашают эти "теории" подтвержденными после создания моделей, которые действительно решают некоторые задачи, но таким образом, что исключается возможность выяснения чего-нибудь относительно общих принципов" [Вейценбаум, 1982, с. 255]. Надо отметить, что хотя Дрейфус и называет искусственный интеллект "наименее самокритичной областью во всем конгломерате естественных наук", здесь все же есть ученые, способные отнестись к своей работе не менее взыскательно, чем критики "извне".

Директор лаборатории искусственного интеллекта Массачусетского технологического института Патрик Уинстон тоже считает, что уход от состояния алхимии еще только предстоит: "Искусственный интеллект – это искусство, собирающееся стать наукой, с очагами инженерии то тут, то там" [Цит. по: Johnson, 1986, р. 241]. Итак, коротко говоря, пятая точка зрения состоит в том, что искусственный интеллект – это интеллектуальное искусство.

Наконец, приведем результаты опроса специалистов по искусственному интеллекту, проведенного в 1978 г. Р. Бречменом и Е. Смитом. На вопрос о цели их собственных исследований 25% опрошенных назвали проектирование интеллектуальных систем, 45% – исследование теоретических проблем, а 25% – и то, и другое [Special..., 1980, p. 51-52].

1. 1. 3. Гносеологическая характеристика области искусственного интеллекта Самоописание области искусственного интеллекта, продемонстрированное выше, пестро и разноречиво. Научное сообщество расколото на множество несогласных друг с другом групп. Чем объяснить такое разнообразие?

Может быть, гетерогенностью самой области, когда одни исследователи действительно занимаются только наукой, а другие – только инженерией, и речь просто идет о разных вещах? Но все дело в том, что мнения расходятся как раз относительно одного и того же предмета, одних и тех же исследований. Кроме того, нет жесткости в позициях сторон – нередко один специалист мог высказываться то в научном, то в инженерном духе.

Тогда, вероятно, играет роль смена характера исследований во времени: научные знания претворяются в инженерные проекты или, наоборот, работа технических устройств дает материал для последующих теоретических обобщений? Безусловно, эти процессы имеют место, но они не объясняют синхронического разнообразия мнений – ведь инженерия и наука не сменяют друг друга в истории искусственного интеллекта, а присутствуют с самого начала на всех этапах развития области.

Кто же из высказавшихся выше ученых прав? Если предположить, что какая-либо одна из точек зрения верна, а остальные нет, то большинство ученых автоматически окажутся пребывающими в заблуждении относительно того, чем они занимаются на работе. Не будем торопиться объяснять разнообразие мнений ошибками и неправильными представлениями. Попробуем понять, каков сам объект, вызвавший столь разноречивые о себе представления у людей, работающих в соседних лабораториях.

Гносеологический "портрет" области искусственного интеллекта, на наш взгляд, обладает следующими чертами;

1) Двойственность исследований. Несомненным продуктом искусственного интеллекта являются компьютерные системы, выполняющие определенные интеллектуальные функции, Этот объект оказывается "двуликим": его можно рассматривать и как научное знание о том, как человеческое мышление осуществляет данную функцию, и как инженерный продукт, проект устройства, решающего определенную задачу. Субъективная цель, которую ставит перед собой создатель конкретной системы, не играет при этом роли: потенциальная включенность в деятельность двух видов является свойством самого объекта. Расхождения в рефлексии ученых объясняются просто: суждения о научном или инженерном характере работ по искусственному интеллекту не противоречат друг другу, но лишь сделаны с разных позиций.

Как точно отмечает В. Г. Горохов, представитель современной научно-технической дисциплины выступает сразу в нескольких ролях: исследователя (следующего нормам научной теоретической деятельности), инженера-проектировщика (создающего проект), методиста и других [Горохов, 1984, с. 67]. При этом сам ученый часто осознает себя лишь в одной роли и, не учитывая специфики своей области, стремится реализовать классический идеал построения научного знания, что оказывается невозможным.

Это приводит к неопределенности самооценки и порождает как методологические, так и чисто психологические проблемы. "Представители этих дисциплин не могут себя отнести ни к теоретикам, ни к практикам, ни к исследователям, ни к проектировщикам и т.д. и тем самым ощущают себя за пределами традиционной организации науки и инженерии" [там же, с. 80].

2) Сложность предмета исследования. К проблеме искусственного интеллекта можно подойти двояко: создать компьютерную систему, реализующую определенный метод моделирования (например, логический), и проверять ее на последовательности интеллектуальных проблем, или же начать создавать систему "под проблему" (скажем, игру в шахматы), пробуя различные методы для ее решения. В "интеллектуальном пространстве" можно двигаться как "горизонтально" – по проблемам (при заданном методе), так и "вертикально" – по методам (при фиксированной проблеме). Образующаяся при этом "решетка" и составляет предмет искусственного интеллекта – "пространство" мышления.

Восстановить это пространство в полном объеме – самостоятельная задача. Одну из первых попыток такого рода предпринял Л. Т. Кузин, составивший таблицу, по строкам которой располагаются методы моделирования, а по столбцам – интеллектуальные проблемы [Кузин, 1974]. Среди методов присутствуют: человеко-машинный, лингвистический, эвристический, логико-алгебраический, статистический, оптимизационный и бионический. К интеллектуальным проблемам относятся:

распознавание образов, индуктивный вывод, формирование понятий, доказательство теорем, ответы на вопросы, игры, решение задач. Эти списки могут быть уточнены и расширены, но для нас важно отметить саму структуру пространства, в котором развертывается поиск искусственного интеллекта.

3) Размытость границы. Создание системы искусственного интеллекта – процесс, требующий не только построения теоретической модели мышления, но и ее программной реализации. Сдвигаясь "вниз", к непосредственным исполнителям – программистам, работа на каком-то этапе теряет черты теории и становится чисто техническим делом. Но строго определить эту границу невозможно. Ограничения или, наоборот, дополнительные возможности, которые дает современное программирование, постоянно видоизменяют теоретическую модель. Р. Шенк верно отмечает, что "после того, как идеи искусственного интеллекта превращаются в прикладную систему, они в каком-то смысле переходят рамки искусственного интеллекта" [Шенк и др., 1987, с. 24]. Сложность, однако, заключается в том, что пока эти идеи не воплощены в системе, пока не поработала инженерия, нельзя оценить и адекватность данной модели мышления, нельзя рассматривать ее как научное знание.

4) Трансформация области в исторической динамике. Бурное развитие области искусственного интеллекта, быстрая проверка гипотез, постоянный приток новых людей и свежих идей сделали гносеологическую картину происходящего чрезвычайно изменчивой.

В одни периоды несколько преобладали научные постановки вопроса, в другие по разным причинам усиливался инженерный подход. Это не могло не отразиться на рефлексии научного сообщества, которая дифференцировалась в соответствии с тем, кто успевал (или нет) следить за всеми новациями. Одни исследователи меняли взгляды, как Н. Нильсон (см. выше его мнения по проблеме "инженерия–наука"), другие сохраняли свои представления прежними, отметая новое как ересь. Конкретный исторический анализ, который будет дан во второй главе, позволит детальнее рассмотреть и изменения самой области искусственного интеллекта, и перемены в представлении научного сообщества о ней.

5) Мировоззренческий смысл. Э. Хант недаром предостерегал читателей своей книги: "Любые обсуждения искусственного интеллекта должны проходить на очень техническом уровне, иначе они окажутся 'в тисках' вопроса о том, как изучение думающих машин должно или может влиять на наши философские и психологические представления" [Хант, 1978, с. 524]. Сама идея создания искусственного интеллекта, последующие попытки, успехи и неудачи вызвали невероятный всплеск эмоций журналистов, скептицизма психологов, инженерного оптимизма и философской критики.

Если в предложенной В. Г. Гороховым схеме "нормального" развития научно-технической дисциплины научно-популярные издания должны появиться лишь на третьем этапе (через 10-20 лет после зарождения нового направления), то идеи искусственного интеллекта общественность начала обсуждать едва ли не раньше, чем ученые-профессионалы.

Неиссякаемая дискуссия на тему "Может ли машина мыслить?" окружила шлейфом домыслов, неоправданных восторгов и необоснованной критики всякую систему искусственного интеллекта, получившую хоть какую-нибудь известность. Реальная научная и инженерная ценность работы при этом совершенно терялась. Необходимость постоянно отвечать на мировоззренческие вопросы, возникающие в связи с их работами, заставляла ученых по-иному смотреть на свою деятельность, и, как будет показано в третьей главе данного исследования, отражалась на когнитивной сфере. Без постоянного мировоззренческого "пресса" гносеологическая картина области была бы неполна.

Перечисленные черты характеризуют область искусственного интеллекта как весьма нестандартный объект науковедения. Эта характеристика решает одну проблему – объясняет разнообразие в рефлексии научного сообщества, но ставит другую – проблему выбора средств дальнейшего науковедческого анализа.

1. 2. Анализ применимости различных схем развития науки к истории искусственного интеллекта 1. 2. 1. Обзор существующих подходов Современная философия науки, со всем богатством выработанных в ее рамках моделей развития науки, выросла из остро осознанного в 1930-е годы разрыва между логикой и историей науки. Логика науки анализировала научную "норму", процесс познания, "очищенный" от исторических условностей, а история описывала деятельность ученых во всей конкретности, но без логико-методологического стержня, скрепляющего последовательность разнообразных событий в причинно-следственную цепь. Задача философии науки – совмещение логической и исторической картин науки, создание моделей, объясняющих динамику когнитивной и социальной сфер, механизм появления нового в науке. Неопозитивистская логика науки была способна лишь анализировать структуру сложившихся научных теорий, но отступала перед любым серьезным научным движением, преобразованием наличной системы знаний. История же науки могла только зафиксировать это движение, но не объяснить его.

Проблема была сфокусирована в самом названии книги К. Поппера "Логика научного открытия" [Поппер, 1983], впервые вышедшей на немецком языке в 1934 г.

Отыскать логику в развитии науки, объяснить не только статику, но и динамику – такую цель поставила перед собой постпозитивистская философия науки. Предложенный Поппером механизм "предположений и опровержений" опирался на ряд принципов, управляющих научным исследованием – выдвижение наиболее смелых, маловероятных гипотез, критицизм, фальсифицируемость (взамен позитивистской верификации), фаллибилизм (вместо кумулятивности). Не останавливаясь подробно на этих хорошо известных принципах, мы лишь укажем на концепцию Поппера как отправную точку для формирования двух других чаще используемых и активно обсуждаемых в контексте истории искусственного интеллекта логико-методологических схем, принадлежащих Томасу Куну и Имре Лакатосу.

Т. Кун обратил внимание на то, что модель Поппера описывает лишь кратковременные революционные периоды в развитии науки, в остальное же время действует скорее не принцип критицизма, а подчинение догме, господствующей в научном сообществе. В этот период, названный Куном "нормальной наукой", ученые, как правило, заняты не выдвижением смелых гипотез, а решением традиционных "головоломок" по имеющимся образцам. Важнейшая мысль Куна – о научном сообществе как подлинном субъекте науки. Взамен одинокого исследователя, руководствующегося лишь собственным разумом, на авансцену выступает группа ученых, для которой то или иное методологическое решение (например, принятие некоторой теории) определяется уже не только рациональными, но и социальными и психологическими факторами.

Концепция Куна оформилась в виде логико-методологической схемы, в которой последовательно, в результате научных революций, сменяются "парадигмы" – устойчивые системы научных ценностей, образцов деятельности, метафизических убеждений и формализмов. Принятые научным сообществом в качестве незыблемой основы, они определяют весь спектр допустимой деятельности на период "нормальной науки".

Парадигма задает и типы выдвигаемых задач, и образцы их решения, и критерии оценки научных результатов.

С момента первого издания в 1962 г. книги Куна "Структура научных революций" [Кун, 1975] эта концепция быстро стала популярной не только у коллег-философов науки, но и в среде ученых из частных дисциплин. Слова "парадигма", "парадигмальный" вошли обиход профессиональных научных сообществ, утеряв при этом, конечно, многие тонкости, заложенные Куном в его концепцию. Тем не менее, ученые получили язык, на котором могли выразить рефлексивное осознание сдвигов, происходящих в областях их исследований.

Кун считал, что решения научного сообщества выглядят рациональными лишь внешне, на деле же определяющую роль играет социально-психологический пресс господствующей догмы. В его концепции, однако, не был прояснен механизм возникновения новой парадигмы и вытеснения ею старой, а также источник разногласий среди ученых, принадлежащих к единой парадигме, по многим частным вопросам. Ученик Поппера И. Лакатос попытался преодолеть эти трудности, "реабилитировав" рационализм и попытавшись под слоем социально-психологических факторов отыскать еще более глубокие рациональные основания.

Лакатос согласился с Куном в критике попперовского императива "опровергнув – отвергай", но считал при этом, что дело не в настроении научного сообщества, а в наличии или отсутствии лучшей теории, которая могла бы заменить опровергнутую.

Отсутствие такой теории заставляет ученых не придавать решающего значения аномалиям и лишь подправлять старую теорию, "ремонтировать" сложившуюся систему знаний. Если же подходящая новая теория имеется в наличии, то она вытесняет старую на вполне рациональных, логических основаниях.

Лакатос уделил большее внимание научной мотивации – тому, что побуждает ученых искать лучшие теории. "Парадигмального" ученого в схеме Куна практически ничто не способно вывести из равновесия. Ученый у Лакатоса испытывает постоянную конкуренцию со стороны коллег, придерживающихся иной "исследовательской программы".

Исследовательская программа – центральное понятие в схеме Лакатоса – представляет собой последовательность теорий, имеющих общее "жесткое ядро" и различающихся "защитными поясами". "Жесткое ядро" содержит наиболее фундаментальные положения, не изменяющиеся в процессе развития научной исследовательской программы. "Защитный пояс" состоит из дополнительных гипотез, частных уточнений и модификаций теории, позволяющих учесть аномалии и предохранить от критики "жесткое ядро". Важно отметить, что каждая исследовательская программа имеет собственный механизм выдвижения новых проблем и "защитных поясов" – "позитивную эвристику".

Конкуренция программ заставляет ученых соревноваться в широте круга решаемых задач, быстроте учета аномалий и стройности выдвигаемых теорий. Для оценки результатов этой борьбы Лакатос предложил критерий "прогрессивности сдвига проблем": "Исследовательская программа считается прогрессирующей тогда, когда ее теоретический рост предвосхищает ее эмпирический рост, т. е. когда она с некоторым успехом может предсказывать новые факты ('прогрессивный сдвиг проблем'); программа регрессирует, если ее теоретический рост отстает от ее эмпирического роста, т. е. когда она дает только запоздалые объяснения либо случайных открытий, либо фактов, предвосхищаемых и открываемых конкурирующей программой ('регрессивный сдвиг проблем'). Если исследовательская программа прогрессивно объясняет больше, нежели конкурирующая, то она 'вытесняет' ее, и эта конкурирующая программа может быть устранена (или, если угодно, 'отложена')" [Лакатос, 1978, с. 219-220].

Логико-методологическая схема Лакатоса сочетает элементы относительной устойчивости ("жесткое ядро") с мощным внутренним генератором изменений (конкуренция программ). Некоторая парадоксальность (и в то же время, на наш взгляд, большое достоинство) этой модели заключается в отсутствии в ней центральных событий всей прежней историографии науки – научных революций. Одна исследовательская программа редко одерживает окончательную победу над другой. А. А. Печенкин справедливо обращает внимание на роль социальных факторов в конкуренции программ:

"В принципе критерием научности исследовательской программы является лишь осведомленность научной общественности обо всех успехах и неудачах этой программы.

Научная исследовательская программа может неопределенно долго находиться в состоянии регрессивного сдвига, поддерживаемая лишь упорством сторонников ее жесткого ядра" [Печенкин, 1984, с. 79]. В то же время, как заметил Т. Кун, "то, что кажется регрессивным сдвигом проблемы, может быть началом весьма длительного периода прогресса" [Цит. по: Лакатос, 1978, с. 228].

Схема Лакатоса тоже представляет собой удобную модель для самоописания науки.

Предложенная в 1970 г., через несколько лет после концепции Куна, методология научных исследовательских программ быстро завоевала столь же широкую популярность.

В обзорной и исторической литературе по искусственному интеллекту часто встречается терминология "парадигм" или "исследовательских программ". Насколько верно используется она при этом, в том ли смысле, который вкладывали в эти понятия Лакатос и Кун? Каковы результаты применения данных моделей, дают ли они удовлетворительное объяснение динамики исследований? Ответы на эти вопросы мы попробуем дать ниже, рассмотрев конкретные примеры использования этих логико-методологических схем в работах как самих специалистов по искусственному интеллекту, дающих рефлексивную картину исследований "изнутри", так и сторонних наблюдателей, избравших данную область в качестве предмета историко-научного анализа.

1. 2. 2. Парадигмы в истории искусственного интеллекта Термин "парадигма" используется в исторических и обзорных описаниях области искусственного интеллекта чрезвычайно часто, возможно, даже слишком. Во всяком случае, канадский исследователь Л. Шуберт в ответ на вопрос анкеты, что бы он предпринял, если бы был назначен "философским королем" научного сообщества искусственного интеллекта (опрос проводился в 1978 г. ), ответил, что запретил бы употреблять слово "парадигма", "которое всякий полощет, как ему вздумается, как только отыщет его в словаре Уэбстера" [Special..., 1980, р. 110].

О парадигмах в истории искусственного интеллекта говорят в основном лишь в тех случаях, когда описывают отдельные рубежные моменты, характеризуя их как смену парадигм. Состоянию "нормальной науки" уделяется гораздо меньше внимания. Были, однако, и попытки представить историю искусственного интеллекта в целом как последовательность сменяющихся парадигм. В 1984 г. английский исследователь Р.

Форсайт изобразил сжатую историю данной области в форме таблицы [Форсайт, 1987, с.

10]:

Со схемой Форсайта согласуется введенное П. Уинстоном различение парадигмы "Универсального решателя задач" (GPS) и парадигмы систем продукций (MYCIN) [Уинстон, 1980, с. 15]. На начало 70-х гг. как на момент смены парадигм указывают и отечественные авторы А. Л. Горелик и И. Е. Гуревич: "способность 'интеллектуальной' системы решать задачи определяется в первую очередь теми специальными знаниями, которыми она располагает, и только во вторую – универсальностью и мощностью используемых ею методов вывода. Парадигма искусственного интеллекта сменилась в том отношении, что фундаментальной проблемой стало считаться не обнаружение ряда мощных методов, а способ представления значительного объема знаний таким образом, чтобы были обеспечены эффективный доступ к ним и эффективное их использование" [Горелик и др., 1982, с. 17].

Дж. Шопмен, как и Форсайт, ассоциировал парадигмы в истории искусственного интеллекта с определенными периодами [Question..., 1988]. Однако, согласно мнению "изнутри" области, принадлежащему Дж. Маккарти, в истории данной дисциплины не было периодов полного доминирования одной парадигмы; делались лишь более сильные упоры, акценты на некоторых направлениях, но разнообразие точек зрения всегда сохранялось. Маккарти даже предложил выделить в исследованиях по искусственному интеллекту "субпарадигмы" [Annals..., 1988, p. 228].

Статуса "парадигмы" удостоились у С. Адданки активно развивающиеся в последние годы исследования по параллельным взаимодействующим сетям, известные под обобщающим наименованием "коннекционизм" [Addanki, 1987, p. 200].

Наступающую смену парадигм сразу в трех подобластях искусственного интеллекта – логическом рассуждении, представлении знаний и системах общения – отметил Д. А.

Поспелов: "Основная логическая парадигма текущего момента в интеллектуальных системах – извлечение программы решения задачи из некоторого доказательства. Она предполагает, что интересующая нас задача может быть представлена в виде задачи доказательства теоремы. … Новая парадигма заменяет логический вывод обоснованием в имеющейся системе знаний... На следующем шаге возможна иная парадигма, когда будет использоваться оправдание решения в имеющейся системе ценностей" [Поспелов Д. А., 1988, с. 29-31]. В исследованиях по представлению знаний, пишет Д. А. Поспелов, происходит переход от символьных моделей к визуальным. В системах общения парадигма понимания отдельных предложений сменяется лингвистикой целостного текста.

В другой подобласти искусственного интеллекта – машинном обучении – были также выделены парадигмы, сменяющие друг друга на различных этапах развития исследований [Michalski et al., 1984, p. 14-16]:

1950-е годы – нейронное моделирование (работы Ф. Розенблатта и других) и подход теоретического решения (А. Сэмюэль);

1960-е – обучение, ориентированное на символьные понятия (Э. Хант, П. Уинстон);

1970-е – самообучение с генерацией обучающих заданий (Д. Ленат).

Заметим, что работы Д. Лената и А. Сэмюэля, отнесенные Р. Форсайтом к одной парадигме, в данной схеме оказались в разных. Кроме того, как мы видим, в 1950-е годы конкурировало два альтернативных подхода, не образующих единую парадигму.

Можно привести и другие примеры, но уже видны основные недостатки применения концепции парадигм к истории искусственного интеллекта. Сразу бросаются в глаза чрезвычайно малые отрезки времени (порядка 10 лет), отделяющие одну "научную революцию" от другой. Согласно Т. Куну, различные парадигмы – это несоизмеримые способы видения мира [Кун, 1975, с. 20], неявно определяющие круг проблем и методов исследования для последующих поколений ученых, на долгое время отвращающие их от конкурирующих моделей научных исследований [там же, с. 27]. Вряд ли даже самое динамичное и свободное от консерватизма научное сообщество способно было бы трижды сменить "способ видения мира" на памяти одного лишь поколения ученых!

Перечисленные выше концептуальные сдвиги сыграли огромную роль в истории искусственного интеллекта, но все же не могут претендовать на статус "научных революций". Скорее это похоже на смену "защитных поясов" исследовательской программы в концепции И. Лакатоса. Возьмем, к примеру, цепочку новаций, выстроенную Д. А. Поспеловым: "Логический вывод в базе данных – Обоснование в системе знаний – Оправдание в системе ценностей". Здесь сохраняется "жесткое ядро" (формулировка интеллектуальной проблемы в виде доказательства некоторого утверждения), а развитие происходит согласно "позитивной эвристике": использовать менее формальные способы рассуждения, в большей мере учитывать неявные и интуитивные аспекты мышления.

Таким образом, примеры использования схемы Т. Куна в объяснении развития исследований по искусственному интеллекту не выглядят убедительными.

Быть может, при более аккуратном использовании эта модель дала бы результат? По нашему мнению, к области искусственного интеллекта концепцию парадигм применять еще рано. Братья Дрейфусы уже в 1980-е годы констатировали, что исследователи зачастую не знают наверняка, что может служить темой диссертации или приемлемой публикации в данной области, поскольку до сих пор нет согласия в том, каковы же насущные проблемы [Dreyfus et al., 1986, p. 99]. Это означает, что в области не сложилась система "головоломок", образцы решения которых хорошо известны. По результатам опроса специалистов по представлению знаний, лишь 7% из них используют уже существующие схемы представления, остальные же разрабатывают свои собственные, оригинальные [Special..., 1980, p. 50]. Как заметил Т. Кун, "для допарадигмального периода в особенности характерны частые и серьезные споры о правомерности методов, проблем и стандартных решений... " [Кун, 1975, с. 72]. Именно такова ситуация в области искусственного интеллекта. Поэтому, на наш взгляд, исследования в данной области еще не вступили в пору "нормальной науки", они находятся лишь на "допарадигмальной" стадии.

Более фундаментальную причину неприменимости логико-методологической схемы Куна к истории информационной науки (центральной частью которой является искусственный интеллект) указывает А. И. Ракитов. В данной схеме, считает он, "глубокий синтез столь различных наук, как физика, лингвистика, психология, эпистемология, математика, технические науки и т. д., связанных в контексте информационной технологии, не мог получить адекватного методологического осмысления. Короткая, но очень насыщенная история информационной науки показывает, что эта новая наука не укладывается в понятие парадигмы, а ее развитие не носит парадигмального характера... Синтез какой-либо парадигмы из теорий, концепций, установок и методов другой науки невозможен в силу некумулятивности различных парадигм как в синхронном, так и в диахронном планах... компоненты новой информационной науки были парадигмально зрелыми еще до начала компьютерной революции, до становления информационной технологии и возникновения информационной науки" [Ракитов, 1987, с. 39].

Столкновение на поле исследований по искусственному интеллекту различных дисциплинарных парадигм, действительно, сильно осложняет ситуацию, порождает слабоструктурированное разнообразие терминологии, концептуальных схем, методов, образцов работы. Следует, однако, учесть, что при этом взаимодействуют не сами исходные парадигмальные структуры из различных дисциплин, а их "отпечатки", "слепки", функционирующие уже в контексте единой дисциплины. Возникает основа для установления определенных соглашений, согласования терминов, сравнения методов.

Этого еще не достаточно для образования единой парадигмы, но уже появляется базис для сравнения и конкуренции различных подходов. Последние, вероятно, могут выступать в данном случае в качестве самостоятельных исследовательских программ.

1. 2. 3. Научные исследовательские программы в истории искусственного интеллекта Наиболее последовательно методологию исследовательских программ при анализе истории искусственного интеллекта проводят в своих работах братья Дрейфусы – философ Х. Дрейфус и специалист по информатике С. Дрейфус. В самом крупном масштабе эта история представляется им борьбой двух исследовательских программ – коннекционизма и информационной (символьной) обработки. В рамках коннекционизма разрабатываются нейроноподобные модели параллельного действия, предназначенные для обработки целостных образов. Символьный подход ("обычный искусственный интеллект") предполагает последовательную переработку информации, при которой каждому отдельному свойству образа отвечает определенный элемент системы.

Симпатии Дрейфусов — целиком на стороне коннекционизма. Они пишут:

"обычный искусственный интеллект как информационная обработка выглядит прекрасным примером того, что Имре Лакатос назвал бы регрессирующей исследовательской программой. Она началась достаточно благоприятно с ранней работы Ньюзлла и Саймона, показавшей, что можно запрограммировать компьютер так, чтобы смоделировать определенные формы человеческого манипулирования символами. С успехами в начале 70-х она быстро установилась как преуспевающая исследовательская программа. Затем, довольно неожиданно искусственный интеллект столкнулся с трудностями... Сомнения возникли в связи с провалом попыток запрограммировать понимание детских рассказов, и вскоре стало очевидно, что реализация здравого смысла – серьезная проблема" [Dreyfus et al., 1986, p. 98].

Следует заметить, что коннекционистская программа и близко не подобралась к проблемам такой сложности, как понимание естественного языка, так что не вполне понятно, по какой шкале Дрейфусы отмеряют успехи и провалы. Вывод, тем не менее, они делают из этих "неудач" глобальный: "Благодаря исследованиям по искусственному интеллекту рассуждения Платона и Канта о том, что разум действует по правилам, нашли, наконец, эмпирическую проверку в попытке использовать логические машины для осуществления человеческого понимания. После двухтысячелетнего усовершенствования традиционный взгляд на разум оказался неадекватным" [Ibidem].

Относительность оценок, даваемых Дрейфусами, иллюстрируется элементарным сопоставлением с их же высказываниями более раннего периода. Сейчас начало 70-х представляется им временем "преуспевания" исследований, но ведь именно в 1972 г. Х.

ДрейФус выпустил книгу "Чего не могут вычислительные машины?" [Дрейфус, 1978], в которой "разочарование", "крушение иллюзий" и "пессимизм" были еще самыми мягкими из характеристик области искусственного интеллекта.

Разберем хотя бы один пункт критики Дрейфусом работ А. Ньюэлла и Г. Саймона.

Эти исследователи описали одну из трудностей, возникающих при работе их системы "Универсальный решатель задач" (GPS), — расхождение последовательности действий машины с протоколом решения той же задачи человеком: "Здесь GPS просто применила правило к текущему выражению, в то время как испытуемый вернулся назад и исправил предыдущее применение. В программе мы не найдем чего-либо, что соответствовало бы этому действию" [Ньюэлл и др., 1967в, с. 298-299]. Дрейфус сразу видит в этом эпизоде регресс исследовательской программы: "Ньюэлл и Саймон, по-видимому, не осознают, что этот отход от схемы действий машины... чреват для их теории таким же крушением, которое потерпела теория Птолемея, когда обнаружилось, что действительные траектории планет ей не соответствуют.... подобно древним астрономам, они пытаются спасти свою теорию, добавляя к ней пару-другую эпициклов. Они по-прежнему полагают... что в основе подобного механизма лежат просто более изощренные методы поиска и что если дать GPS возможность 'постоянно немного оглядываться назад, на свои предыдущие действия', то все будет в порядке" [Дрейфус, 1978, с. 60]. "Здесь мы также сталкиваемся с чем-то вроде залатывания дыр и подшивания кусочков с помощью приемов ad hoc... это своего рода карабканье на дерево в надежде добраться до Луны" [там же, с. 66].

Заметим, что система Птолемея отнюдь не терпела крушения, пока накапливала эпициклы, – наоборот, она доказывала свою хорошую восприимчивость к аномалиям.

Крах ждал ее в столкновении с конкурирующей теорией. Но если бы вдруг случилось так, что гелиоцентрическая система никогда бы не возникла, то вряд ли у нас были бы основания говорить о теории Птолемея с подобным пренебрежением. Тем более непонятен критицизм Дрейфуса по отношению к работам Ньюэлла и Саймона. Разве он может указать систему, моделирующую поведение человека в данной ситуации лучше, чем "Универсальный решатель задач"?

На наш взгляд, применение Дрейфусами методологии научных исследовательских программ к истории искусственного интеллекта было проведено недостаточно корректно, вследствие чего оценки отдельных исследований оказались субъективными, а общая картина – искаженной. По Лакатосу, оценить прогресс или вырождение исследовательской программы можно лишь по "внешнему" критерию – в сравнении с другой, конкурирующей программой. Успех одной программы есть неудача другой, и наоборот. Дрейфусы же пытаются использовать "внутренний" критерий — сравнение с поведением человека. Но мы же не можем, например, оценить адекватность физической теории лишь по абсолютной величине точности ее предсказаний, вне сравнения с точностью предсказания других теорий. Так же и в области искусственного интеллекта – нельзя сказать, хорошо или плохо данная система моделирует поведение человека, если нет конкурирующей модели.

Разделяя с Дрейфусами принципиальное убеждение в применимости методологии исследовательских программ к истории искусственного интеллекта, мы считаем, однако, что это применение должно базироваться на более тщательном учете особенностей области и требует соответственной настройки методологического инструментария.

Подводя итог осуществившимся попыткам применить к истории искусственного интеллекта различные логико-методологические схемы, сошлемся на мнение А. Ньюэлла:

"Использование парадигм Куна и исследовательских программ Лакатоса мало что дает.

Можно показать, что на протяжении своей короткой истории искусственный интеллект развил одну, максимум две парадигмы. Аналогично, он содержит лишь горстку исследовательских программ. Для анализа, однако, необходимо достаточно большое число примеров. Во внутренней истории искусственного интеллекта, несомненно, слишком мало парадигм. Вероятно, это верно и для исследовательских программ, хотя было бы интересно попытаться дать такое описание искусственного интеллекта" [Newell, 1983, р. 188].

По нашему мнению, даже небольшое число исследовательских программ способно за счет активной конкуренции породить сложную и богатую событиями картину развития исследовательской области. Нам, как и А. Ньюэллу, тоже интересно взглянуть на эту картину.

1. 3. Характеристика адекватной модели развития области 1. 3. 1. Сходство со схемой И. Лакатоса Как уже отмечалось выше, схема развития науки по Лакатосу предусматривает постоянную конкуренцию научных исследовательских программ, каждая из которых развивается путем смены вспомогательных теорий ("защитных поясов"), выдвигаемых "позитивной эвристикой", при неизменном "жестком ядре". В исследованиях по искусственному интеллекту легко обнаружить прямые аналоги этих компонент схемы.

В основе любой системы искусственного интеллекта лежит некоторая исходная модель мышления, включающая описание определенного класса интеллектуальных задач и механизм поиска их решения. Различные исходные модели в самой общей, качественной форме черпаются из смежных с искусственным интеллектом областей – психологии, лингвистики, логики, нейрофизиологии, биологии. Дальнейшая работа специалистов по искусственному интеллекту состоит в разработке адекватных формальных описаний и конкретных механизмов реализации этих моделей. Каждая модель становится "ядром" соответствующей исследовательской программы.

Подробнее содержание исходных моделей будет рассмотрено в следующей главе.

Здесь же мы укажем лишь на некоторые проблемы, связанные с выделением "ядра" исследований по искусственному интеллекту. Дело в том, что такая попытка, не вполне, на наш взгляд, удачная, уже была предпринята X. Дрейфусом [Дрейфус, 1978, с. 106]. Он эксплицировал четыре допущения, лежащие в основе искусственного интеллекта:

1. Биологическое допущение: переработка информации на нейронном уровне носит дискретный характер по типу электрических переключательных схем.

2. Психологическое допущение: мышление есть переработка информации, заданной в бинарном коде, по формальным правилам.

3. Эпистемологическое допущение: все знания могут быть формализованы и выражены в терминах булевых функций.

4. Онтологическое допущение: все происходящее в мире можно представить в виде множества фактов, каждый из которых логически не зависит от остальных.

Дрейфус, как видно, считает, что эти положения, явно или неявно, принимаются любым специалистом по искусственному интеллекту. Можно критиковать спорность самих формулировок (скажем, информация не обязательно представляется в бинарном коде, а онтологическое допущение никак не согласуется с активным использованием в современных исследованиях неклассических (модальных, каузальных, псевдофизических) логик), но сейчас для нас важен сам факт объединения Дрейфусом всех этих допущений в единый блок.

На наш взгляд, биологические, психологические и логические модели в искусственном интеллекте никогда не уживались вместе. Подобный синкретизм свойствен ранним работам У. Маккалока и У. Питтса [Маккалок и др., 1956] – кибернетическому подходу, послужившему для исследований по искусственному интеллекту лишь точкой отталкивания. Своеобразие искусственного интеллекта в сравнении с кибернетикой как раз и состояло в отказе от попыток совместить нейрофизиологическую и феноменологическую картины мышления и переходе целиком на феноменологический уровень. Что же касается психологического и эпистемологического (логического) подходов, то несовместимость психологических моделей человеческой субъективности и эпистемологических моделей объективного знания также была ясна специалистам по искусственному интеллекту с самого начала.

Соединение несовместимого понадобилось Дрейфусу, по-видимому, из-за того, что он считал "обычный искусственный интеллект" единой исследовательской программой символьной переработки. Как мы покажем ниже, в этой области действует несколько исследовательских программ с принципиально различными "ядрами". Именно отличия "ядер" позволяют ввести критерий разделения программ, т.к. многие частные схемы могут использоваться в равной мере представителями разных программ.

Роль "защитных поясов" играют практические реализации исходных качественных моделей – конкретные системы искусственного интеллекта, компьютерные программы, выполняющие определенные интеллектуальные функции. По сути дела, они выступают в качестве частных теорий мышления в рамках исходных постулатов, заложенных в "ядро".

Действительно, как указывает Дж. Вейценбаум, "теории – это тексты. Тексты записываются на некотором языке. Машинные языки – это тоже языки, и теории можно на них записывать... Тексты, записанные в виде программ вычислительной машины, – это обычные теории" [Вейценбаум, 1982, с. 195-196]. А. Ньюэлл и Г. Саймон рассматривали "Универсальный решатель задач" именно как теорию: "Предлагается теория, объясняющая, каким образом некоторые люди пытаются решать простые формальные задачи. Исследования, послужившие основой для данной теории, тесно связаны с проблемами обработки информации и построения "разумных" автоматов, а сама теория выражена в виде программы для вычислительной машины" [Ньюэлл и др., 1967в, с. 283].

Авторы задают и критерий оценки таких систем-теорий: "Если поведение программы будет достаточно близким к зафиксированному в протоколе поведению испытуемого, такая программа даст нам хорошую теорию процесса решения задач человеком" [там же, с. 289]. Разработка более совершенных с данной точки зрения систем искусственного интеллекта, опирающихся на единую исходную модель, соответствует смене теорий в рамках одной исследовательской программы при сохранении общего "жесткого ядра".

"Позитивная эвристика", которая, по Лакатосу, определяет проблемы для исследования и выделяет "защитный пояс", в данном случае состоит из двух компонент.

Первая связана с областью, из которой почерпнута исходная модель, и задает перечень интеллектуальных проблем, характерных для этой области. Скажем, лингвистическая модель мышления влечет за собой выбор характерных задач — понимание естественного языка, машинный перевод, а психологическая модель диктует использование обычных ситуаций психологических экспериментов на запоминание или решение логических головоломок. Вторая компонента связана с областью информатики, в рамках которой развиваются исследования по искусственному интеллекту. Она определяет выбор средств реализации конкретных интеллектуальных систем, учитывая аппаратные возможности ЭВМ и ее программное обеспечение (включая машинные языки). Имеется и обратная связь: задачи искусственного интеллекта вызывают к жизни новые языки программирования (например, LISP и PROLOG) и даже новые аппаратные решения (т.

наз. ЛИСП-машина).

Сходство схемы развития области искусственного интеллекта с моделью Лакатоса очевидно, но специфика этой области требует особой "настройки" модели, конкретизации ее общих положений для данного случая.

1. 3. 2. Отличительные особенности модели Мы остановимся на трех основных особенностях исследовательских программ в области искусственного интеллекта. Первая связана с характером самих исследований, их научно-инженерной двойственностью и, соответственно, "обратимостью" их продукта, который может выступать и как инженерный проект, и как научное знание. Вторая характерная особенность определяется предметом исследований – интеллектуальным "пространством", образованным "решеткой" интеллектуальных задач и методов моделирования. Разнообразие возможных траекторий движения по этому пространству заставляет иначе взглянуть на проблему конкуренции программ. Со спецификой этой конкуренции, определением критериев прогресса и регресса исследовательских программ как раз связана третья рассматриваемая особенность.

Как уже отмечалось выше, научное сообщество столкнулось с проблемой двойственности исследований практически с самого начала. Первой реакцией на эту трудность явились попытки ввести различение "искусственного интеллекта" (как деятельности по созданию "разумных" машин) и "моделирования процессов познания" (как создания теории человеческого мышления с помощью его моделирования на ЭВМ).

Первый сборник статей по искусственному интеллекту "Вычислительные машины и мышление", вышедший в 1963 г., был поделен его редакторами Э. Фейгенбаумом и Дж.

Фельдманом на две соответствующие части [Вычислительные..., 1967].

Сразу, однако, возникла проблема – к какой из частей отнести цикл работ А.

Ньюзлла, Г. Саймона и Дж. Шоу по созданию систем, играющих в шахматы, доказывающих теоремы логики и решающих другие задачи, но одновременно и моделирующих сам процесс человеческого мышления. Редакторы сборника так охарактеризовали одну из работ этого цикла – шахматную компьютерную программу:

"Программа Ньюэлла, Шоу и Саймона относится к тем исследованиям, которые лежат в пограничной области между проблемой искусственного интеллекта и моделированием процесса решения задач человеком. Строго говоря, она вовсе не задумана как некая модель решения задач человеком в шахматной ситуации. Однако, разрабатывая свою программу, авторы исходили из убеждения, что человеческие методы решения задач, характеризующиеся высокой степенью адаптивности и избирательности, должны оказаться более эффективными при решении шахматных задач, чем другие предложенные вычислительные схемы. Работа их шахматной программы как будто подтверждает правильность этого убеждения" [там же, с. 32-33].

Для того, чтобы инженерная разработка была эффективной, оказалось необходимым моделировать некоторые аспекты человеческого мышления, что уже представляло собой научную задачу. Научная и инженерная цели вступили в тесную взаимосвязь.

В конечном счете редакторы отнесли шахматную программу и систему "Логиктеоретик" [Ньюэлл и др., 1967а, 19676] к первой части сборника, а "Универсальный решатель задач" [Ньюэлл и др., 1967в] – ко второй, хотя все три системы базировались на едином принципе эвристического поиска. Фактически одна и та же система искусственного интеллекта, рассматриваемая с разных точек зрения, выглядела решением то инженерной задачи, то научной проблемы.

Позднее работы из обеих частей этого сборника стали равно рассматриваться как классические системы искусственного интеллекта. И сам Э. Фейгенбаум вскоре уже включил "моделирование процессов познания" в область искусственного интеллекта [Фейгенбаум, 1973]. Для многих ведущих специалистов стала ясна искусственность прежнего размежевания. Крупнейший исследователь, участник Дартмутского проекта, профессор Массачусетского технологического института Марвин Минский писал в г.: "В настоящем очерке я не провожу границы между теорией мышления человека и схемой построения интеллектуальной машины. Их разделение сегодня не пошло бы никому на пользу" [Минский, 1979, с. 5]. В 1978 г., при ответе на вопрос анкеты "предназначена ли Ваша система быть инструментом для построения интеллектуальных систем или же самодостаточным исследованием теоретических проблем?", другие видные американские ученые Д. Бобров и Т. Виноград констатировали неразделимость этих функций [Special..., 1980, р. 52].

Наша точка зрения состоит в том, что особенностью исследовательских программ в области искусственного интеллекта является их "двуликость" в отношении инженерных или научных целей исследователей, работающих рамках данной программы. Модель мышления, заложенная в "жесткое ядро", может выступать и как основа теории мышления, и как база инженерного проекта. Так же двойственен и конечный продукт – интеллектуальная система, которая потенциально является и записанной на машинном языке теорией, и технической реализацией проекта. Американский специалист в области когнитивной психологии Дж. Миллер еще в 1962 г. указал на двоякую функцию компьютерных программ искусственного интеллекта – как "модели интеллектуальной системы и, даже чаще, вида языка, на котором можно выразить теорию" [Цит. по: Newell, 1970, p. 366]. Двойственность исследований в данной области подчеркнул и Б. В.

Бирюков, выделивший две главные цели этих работ: "Одна из них – моделирование на цифровой машине некоторых существенных черт интеллектуального (разумного) поведения. Другая – использование ЭВМ для решения сложных проблем, овладение которыми до сих пор было под силу только человеку. Различие этих двух целей относительно (многие кибернетические разработки подчинены обеим целям одновременно) и отражает лишь разные акценты" [Бирюков, 1978, с. 301]. Заметим, что, хотя различие этих целей может подчас выглядеть и абсолютным (одни авторы открыто декларируют свою приверженность только первой цели, другие же – только второй), сам результат исследований можно реально рассматривать как воплощение любой из указанных целей.

Мы сталкиваемся здесь с явлением, названным М. А. Розовым "рефлексивной симметрией знания". Ближе всего к нашему случаю пример симметрии предметного и методического знания. Розов характеризует его так: "Представьте себе описание конкретного эксперимента, например, эксперимента по определению скорости света. К этому описанию можно относиться двумя различными способами. Все зависит от того, интересует ли нас свет и скорость его распространения или метод измерения этой скорости. В первом случае описание будет выглядеть как знание о свете, во втором – как описание образца деятельности, которую можно по этому описанию воспроизводить.

Одно и то же описание воспроизводится как знание двух разных типов. Это либо предметно ориентированное знание, представляющее собой характеристику какого-либо явления, либо знание-рецепт, знание-метод" [Розов, 1986, с. 14]. Выбор того или иного описания определяется рефлексией ученого, поэтому симметрия и является "рефлексивной". Аналогично, в исследованиях по искусственному интеллекту мы обнаруживаем симметрию предметного знания (о механизмах мышления) и технического знания – метода инженерного проектирования (как построить интеллектуальную машину).

Данная ситуация мгновенно порождает проблему оценки конкретных исследований.

Действительно, некоторая интеллектуальная система может хорошо моделировать процесс человеческого мышления, но при этом быть чрезвычайно неэффективной с инженерной точки зрения, т. е. просто плохо решать задачи (ведь человек не всегда мыслит эффективно). А хороший инженерный проект, в свою очередь, может неадекватно воспроизводить человеческий метод мышления. Автор конкретной системы искусственного интеллекта не испытывает таких колебаний, он выбирает для себя одну – научную или инженерную – цель и оценивает работу системы по однозначному критерию.

Но с методологической точки зрения такое решение выглядит субъективным. Чтобы придать критериям оценки объективность, следует обратиться к общей картине динамики исследовательских программ в рамках всей области.

Выше мы уже описывали структуру того интеллектуального "пространства", в котором прокладывают себе дорогу исследования по искусственному интеллекту. Оно имеет форму "решетки" или таблицы, по столбцам которой расположены интеллектуальные задачи, а по строкам — методы моделирования мыслительных функций, позволяющие искать решение этих проблем. С развитием исследований клетки этой таблицы постепенно заполняются – появляются системы, в которых соответствующий метод применяется к соответствующей задаче. Аналогичную картину описания области предложил А. Ньюэлл: "История искусственного интеллекта в целом может быть написана в терминах географии задач, успешно выполненных системами искусственного интеллекта. Почти ортогонально к этому направлению задач лежит направление интеллектуальных функций, необходимых для интеллектуальных систем – репрезентация, методы решения проблем, распознавание, получение знаний и т.д. – то, что можно определить как физиологию интеллектуальных систем. Так, история может быть написана в форме возрастающего понимания и механизации каждой функции. Оба этих структурных качества искусственного интеллекта и в особенности, возможно, их матрица обеспечивают достаточно плодотворный базис для истории" [Newell, 1983, р.

189]. Сходным образом структурируется, например, и одна из подобластей искусственного интеллекта – машинное обучение. Исследования при этом классифицируются по трем критериям – по лежащей в их основе стратегии обучения, по способу представления знаний или навыков и по областям применения. "Каждая точка в этом трехмерном пространстве означает определенную обучающую стратегию, использующую определенное представление знаний и примененную к определенной области" [Michalski et al., 1984, p. 7]. Если объединить стратегию обучения и способ представления знаний в едином понятии метода моделирования, то мы вновь получим структуру двумерного пространства.

Важно отметить, что в данном пространстве можно двигаться двояким образом — по методам или по задачам. Любая система искусственного интеллекта как бы потенциально включена в эти две традиции – поиска лучшего метода решения данной задачи и исследования возможностей определенного метода на множестве задач. Здесь вновь, но уже на другом уровне, возникает предметно-методическая симметрия знания.

Две указанные традиции четко различили Дж. Маккарти и П. Хейес: "Были написаны программы для некоторого класса задач, требующих для своего решения сложной умственной деятельности человека. В ходе разработки этих программ были установлены более или менее общие механизмы интеллекта... Нередко испытание программ приводило к лучшему пониманию интеллектуальных механизмов и к выявлению новых механизмов... Альтернативный подход состоит в том, чтобы начинать с механизмов интеллекта (например, механизмов памяти, принятия решения на основе взвешенных сумм субкритериев, обучения, разветвленного поиска, экстраполяции), а затем разрабатывать задачи, к которым можно применить эти механизмы" [Маккарти и др., 1972, с. 41-42]. Каждый отдельный ученый, как правило, ограничивается движением лишь в одном направлении, и тогда его рефлексия может расходиться с рефлексией коллеги, движущегося "перпендикулярно". Как замечают те же авторы, исследователи не охватывали проблемы в целом и думали, что видят лес, когда на самом деле смотрели лишь на одно дерево" [там же, с. 42].

Хотя данное интеллектуальное пространство едино и должно служить полем столкновения всех исследовательских "программ, каждая программа имеет в нем свои "предпочтительные" траектории. Они проходят по задачам, связанным с той областью, из которой заимствована исходная модель мышления, составляющая "жесткое ядро" данной программы. Скажем, логистическая программа в большей мере ориентирована на доказательство теорем, чем на понимание естественного языка, а программа, основанная на лингвистической модели, ведет себя ровно наоборот. Конечно, исследовательские программы вторгаются и на "чужие" территории, иначе соревнование их было бы вовсе невозможно. Но эта конкуренция похожа не на гонки автомашин по одной трассе, а скорее на блуждание грибников в одном лесу.

Неудивительно поэтому, что проблема выбора критериев сравнения различных систем искусственного интеллекта стоит в научном сообществе очень остро. Из-за различия исходных позиций (каждый, так сказать, входит в лес со своего конца) никак не удается выработать единую точку зрения. По данным опроса 1978 г., 60% специалистов по искусственному интеллекту считают, что критерии, по которым следует оценивать их собственные системы, не являются универсально применимыми, причем треть из них рассматривает эти критерии как совершенно уникальные, годящиеся лишь для одной системы [Special..., 1980, р. 66]. Специалисты из компании "Ксерокс" К. ван Лейн, Дж. С.

Браун и Дж. Грино справедливо отметили "отсутствие 'соревновательной аргументации', с помощью которой результаты одного моделирования можно было бы сравнить с результатами другого. Без такой аргументации теории искусственного интеллекта стоят на носках, а не на плечах своих предшественников" [Цит. по: Gardner, 1985, р. 178].

В этом случае, по нашему мнению, критерием оценки теорий (интеллектуальных систем) в рамках одной исследовательской программы может выступать величина покрываемого ими интеллектуального пространства (реализуемых методов и решаемых задач). Одна теория, как у И. Лакатоса, сменяет другую, если обладает по отношению к ней дополнительным содержанием [См.: Лакатос, 1978, с. 221]. Критерий же в борьбе разных исследовательских программ – новизна выдвигаемых задач и методов.

Прогрессировать будет та исследовательская программа, которая расширяет само интеллектуальное пространство, а не замыкается в уже известном объеме. Из этого следует, что в определенные периоды могут прогрессировать несколько программ, расширяя пространство в разные стороны и не вступая до поры в конкуренцию.

Борьба исследовательских программ развертывается одновременно в двух плоскостях — научной и инженерной. При этом одна программа может с точки зрения научных достижений прогрессировать, а по инженерным критериям – вырождаться, а другая – наоборот. Все эти парадоксы воочию продемонстрирует реальная история искусственного интеллекта, к рассмотрению которой мы приступаем.

Глава 2. ИСТОРИЧЕСКАЯ ДИНАМИКА ОБЛАСТИ ИСКУССТВЕННОГО

ИНТЕЛЛЕКТА



Pages:     || 2 | 3 |


Похожие работы:

«Погосян Роман Георгиевич КОНЦЕПТ СУДЬБА И ЕГО ЯЗЫКОВОЕ ВЫРАЖЕНИЕ В ПОЭТИЧЕСКОМ ТЕКСТЕ Ф.К. СОЛОГУБА Специальность 10.02.01 – русский язык ДИССЕРТАЦИЯ на соискание ученой степени кандидата филологических наук Научный руководитель доктор филологических наук профессор А.А. Буров Пятигорск, СОДЕРЖАНИЕ Введение.. Глава I. Мифопоэтическое основание интерпретации...»

«Баранова Любовь Николаевна ФОРМИРОВАНИE КОМПЛЕКСНОГО ПОДХОДА К ВОЗВЕДЕНИЮ И ЭКСПЛУАТАЦИИ ЖИЛЫХ ОБЪЕКТОВ КАК НАПРАВЛЕНИЕ ПОВЫШЕНИЯ ЭФФЕКТИВНОСТИ УПРАВЛЕНИЯ ЖИЛИЩНЫМ СТРОИТЕЛЬСТВОМ Специальность 08.00.05 -Экономика и управление народным хозяйством (экономика, организация и управление предприятиями, отраслями,...»

«Спирина Екатерина Александровна РАННЯЯ АКТИВИЗАЦИЯ РЕЦИПИЕНТОВ ПОСЛЕ ОРТОТОПИЧЕСКОЙ ТРАНСПЛАНТАЦИИ СЕРДЦА 14.01.24 - Трансплантология и искусственные органы ДИССЕРТАЦИЯ на соискание ученой степени кандидата медицинских наук Научный руководитель : доктор медицинских наук, профессор В. Н. Попцов Москва – ОГЛАВЛЕНИЕ ВВЕДЕНИЕ.. ГЛАВА 1. ПРЕДПОСЫЛКИ ДЛЯ ВНЕДРЕНИЯ...»

«Федоров Сергей Юрьевич АППАРАТУРА И МЕТОДЫ МОЛЕКУЛЯРНОГО РАССЕЯНИЯ И ФЛУОРЕСЦЕНЦИИ ДЛЯ ЛОКАЛЬНЫХ ИЗМЕРЕНИЙ В ПОТОКАХ ГАЗОВ С ГОРЕНИЕМ 01.04.05 - Оптика Диссертация на соискание ученой степени доктора технических наук Новосибирск – 2014 ОГЛАВЛЕНИЕ Стр. ВВЕДЕНИЕ.. Общая характеристика работы.. РАЗДЕЛ 1. ОБЗОР ЛИТЕРАТУРЫ.....»

«ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ ГОСУДАРСТВЕННОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ “ВОРОНЕЖСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ” ИВАНОВА КСЕНИЯ ГЕОРГИЕВНА УПРАВЛЕНИЕ ПОРТФЕЛЕМ ЦЕННЫХ БУМАГ НА ОСНОВЕ D-ОЦЕНОК РУССМАНА И НЕЙРОСЕТЕВОГО МОДЕЛИРОВАНИЯ специальность 08.00.13 – Математические и инструментальные методы экономики ДИССЕРТАЦИЯ на соискание ученой степени кандидата экономических наук Научный руководитель : доктор физико-математических наук,...»

«АКАДЕМИЯ НАУК СССР ОРДЕНА ЛЕНИНА ИНСТИТУТ ХИМИ 1 1ЕСКОН ФИЗИКИ СМИРНОВ Борис Рафаилович Для слу~~ого пользования Уч..N'11 13/85 Экз..Ni_ УДК 541.64; 541.127; 541.128.3 КАТАЛИТИЧЕСКИЕ МЕТОДЫ РЕГУЛИРОВАНИЯ РАДИКАЛЬНОЯ ПОЛИМЕРИЗАЦИИ Специальность 02.00.06- химия высокомолекулярных соединений Диссертация на соискание ученой степени доктора химических наук в форме научного доклада Черноголовка www.sp-department.ru РТRОСТЬ ИСUОJ!ЬЗОБЭНИЯ каТЭЛИЭЭТОр8 В ЭК'l'аХ ПеDQДЭЧП Ц8ПИ ( n...»

«ШЕВЧУК Антон Павлович ПОВЫШЕНИЕ ЭФФЕКТИВНОСТИ ГРУППОВОГО РЕГУЛИРОВАНИЯ НАПРЯЖЕНИЯ В РАСПРЕДЕЛИТЕЛЬНЫХ СЕТЯХ ПРОМЫШЛЕННЫХ ПРЕДПРИЯТИЙ В УСЛОВИЯХ ТЕРРИТОРИАЛЬНО РАССРЕДОТОЧЕННЫХ ЭЛЕКТРОПОТРЕБИТЕЛЕЙ Специальность 05.09.03 – Электротехнические комплексы и системы...»

«Вериш Татьяна Анатольевна Формы организации и стратегическое обеспечение развития региональных инфраструктурных локализаций Специальность 08.00.05 – экономика и управление народным хозяйством: региональная экономика Диссертация на соискание ученой степени кандидата экономических наук Научный руководитель доктор экономических наук, профессор Липчиу Нина Владимировна Краснодар - 2014...»

«Смотрич Евгения Александровна Топография роговицы и распределение механических напряжений в ней при различных видах корнеальной хирургии. 14.01.07 – глазные болезни Диссертация на соискание ученой степени кандидата медицинских наук Научный руководитель : Доктор медицинских наук, С.И.Анисимов Москва Оглавление Список сокращений.. Введение.. Глава 1. Обзор...»

«МИХАЙЛОВ АНТОН ИГОРЕВИЧ УДК 543.427.4: 543.422.3 МЕТОДЫ КОНТРАСТИРОВАНИЯ СПЕКТРОВ РЕНТГЕНОВСКОЙ ФЛУОРЕСЦЕНЦИИ И ИХ АППАРАТУРНАЯ РЕАЛИЗАЦИЯ 01.04.01 – физика приборов, элементов и систем Диссертация на соискание ученой степени кандидата физико-математических наук Научный руководитель Мамалуй Андрей Александрович доктор физико-математических наук, профессор Харьков - СОДЕРЖАНИЕ СПИСОК УСЛОВНЫХ ОБОЗНАЧЕНИЙ...»

«ИЗ ФОНДОВ РОССИЙСКОЙ ГОСУДАРСТВЕННОЙ БИБЛИОТЕКИ Патрушева, Тамара Николаевна Экстракционно­пиролитический метод получения функциональных оксидных материалов Москва Российская государственная библиотека diss.rsl.ru 2006 Патрушева, Тамара Николаевна Экстракционно­пиролитический метод получения функциональных оксидных материалов : [Электронный ресурс] : Дис. . д­ра техн. наук  : 05.17.02. ­ М.: РГБ, 2006 (Из фондов Российской Государственной Библиотеки)...»

«Богатырева Людмила Вячеславовна Политические партии в системе отношений центр - регион в 2000-е гг. (на примере ЦФО) Специальность 23.00.02 – Политические институты, процессы и технологии (политические наук и) Диссертация на соискание ученой степени кандидата политических наук Научный руководитель : доктор...»

«ИЗ ФОНДОВ РОССИЙСКОЙ ГОСУДАРСТВЕННОЙ БИБЛИОТЕКИ Андерсон, Ольга Владимировна Лингвокультурологические и национально­ментальные особенности языка рекламы Москва Российская государственная библиотека diss.rsl.ru 2006 Андерсон, Ольга Владимировна Лингвокультурологические и национально­ментальные особенности языка рекламы : [Электронный ресурс] : Дис.. канд. филол. наук  : 10.02.19. ­ Краснодар: РГБ, 2006 (Из фондов Российской Государственной Библиотеки)...»

«Дикарев Александр Васильевич ДВУХУРОВНЕВАЯ СИСТЕМА СТАБИЛИЗАЦИИ ИЗОБРАЖЕНИЯ ДЛЯ МОБИЛЬНЫХ РОБОТИЗИРОВАННЫХ КОМПЛЕКСОВ 05.13.01 – Системный анализ, управление и обработка информации (промышленность) Диссертация на соискание ученой степени кандидата технических наук Волгоград – 2014 1    СОДЕРЖАНИЕ ВВЕДЕНИЕ 4 1. СИСТЕМЫ ТЕХНИЧЕСКОГО ЗРЕНИЯ, РАСПОЛОЖЕННЫЕ НА ПОДВИЖНОМ ОСНОВАНИИ 1.1 Классификация СТЗ, работающих в составе МРК 1.2 Условия формирования модели изображения в СТЗ МРК...»

«БУРДУКОВСКИЙ МАКСИМ ЛЕОНИДОВИЧ ВЛИЯНИЕ ДЛИТЕЛЬНОЙ ХИМИЗАЦИИ ПОЧВ ЮГА ДАЛЬНЕГО ВОСТОКА НА БИОЛОГИЧЕСКИЙ КРУГОВОРОТ И СОДЕРЖАНИЕ МАКРО– И МИКРОЭЛЕМЕНТОВ 03.02.08 – экология Диссертация на соискание ученой степени кандидата биологических наук Научный руководитель : доктор биологических наук, старший научный сотрудник Голов Владимир Иванович...»

«ДАВЫДОВ ЕВГЕНИЙ ЛЕОНАРДОВИЧ УДК 616.12-008.331.1.-036:612.67 НАУЧНОЕ ОБОСНОВАНИЕ ОПТИМИЗАЦИИ МЕДИКОСОЦИАЛЬНОЙ ПОМОЩИ ЛИЦАМ ПОЖИЛОГО И СТАРЧЕСКОГО ВОЗРАСТА С АРТЕРИАЛЬНОЙ ГИПЕРТОНИЕЙ (НА МОДЕЛИ Г. КРАСНОЯРСКА) 14.01.04 – внутренние болезни; 14.02.03 - общественное здоровье и здравоохранение ДИССЕРТАЦИЯ НА СОИСКАНИЕ УЧЁНОЙ СТЕПЕНИ...»

«Артюшина Анна Владимировна Сетевые взаимодействия в условиях конкуренции за ресурсы на примере молекулярно-биологических лабораторий в России и США Специальность 22.00.03 Экономическая социология и демография Диссертация на соискание ученой степени кандидата социологических наук Научный руководитель : д.э.н.,...»

«Фи Хонг Тхинь ОЦЕНКА И ПРОГНОЗ ОСЕДАНИЯ ЗЕМНОЙ ПОВЕРХНОСТИ В РЕЗУЛЬТАТЕ ИЗВЛЕЧЕНИЯ ПОДЗЕМНЫХ ВОД НА ТЕРРИТОРИИ Г. ХАНОЙ (ВЬЕТНАМ) 25.00.08 – Инженерная геология, мерзлотоведение и грунтоведение Диссертация на соискание ученой степени кандидата геолого-минералогических наук Научный руководитель : доктор...»

«ФЕДОРЕНКО АНАСТАСИЯ ВЛАДИСЛАВОВНА Стратегия формирования системы управления человеческим потенциалом в индустрии гостеприимства с использованием механизма аутсорсинга и аутстаффинга Специальность 08.00.05 – Экономика и управление народным хозяйством (рекреация и туризм) ДИССЕРТАЦИЯ на соискание ученой степени кандидата...»

«ВЕРЕЩАГИН КОНСТАНТИН НИКОЛАЕВИЧ СОВЕРШЕНСТВОВАНИЕ УПРАВЛЕНИЯ КАЧЕСТВОМ ПРОЦЕССОВ МОДЕРНИЗАЦИИ И РАЗВИТИЯ СИСТЕМ ГАЗОПРОВОДОВ-ОТВОДОВ Специальность 05.02.23 Стандартизация и управление качеством продукции ДИССЕРТАЦИЯ на соискание ученой степени кандидата технических наук Москва – 2014 ВВЕДЕНИЕ ГЛАВА 1...»






 
2014 www.av.disus.ru - «Бесплатная электронная библиотека - Авторефераты, Диссертации, Монографии, Программы»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.