Искусственный интеллект ученые занимающиеся этой проблемой. Искусственный интеллект: проблемы создания и последствия для человека

  • Перевод

В прошлом году по дорогам округа Монмут, Нью-Джерси, стал колесить странный робомобиль. Это экспериментальное транспортное средство, разработанное специалистами компании Nvidia, по внешнему виду не слишком отличается от других автономных машин других производителей, таких как Google, Tesla или General Motors. Но специально для этого автомобиля разработана новая система управления. Она самообучается, и не зависит от настроек, заданных на производстве. Вместо этого робомобиль следит за действиями человека-водителя и учится у него.

Это немного необычный способ обучения робомобиля. С другой стороны, мало кто до конца представляет себе, как машина принимает решения. Информация с сенсоров, радаров и лидаров поступает в нейросеть, где эти данные обрабатываются с выделением четких правил управления рулевым колесом, тормозами и другими системами. В итоге получается, что действия робомобиля зачастую схожи с действиями водителя-человека, попавшего в ту же ситуацию на дороге. Возникает вопрос - может ли машина принять странное решение в одном из случаев - например, врезаться в дерево на полном ходу или постоять на светофоре, когда горит зеленый?

Нейросеть, обрабатывающая информацию можно сравнить с черным ящиком. Нет, конечно, специалисты представляют себе принцип обработки данных нейросетью в общих чертах. Но проблема в том, что самообучение - это не до конца предопределенный процесс, так что на выходе можно ожидать иногда абсолютно неожиданные результаты. В основе всего лежит глубокое обучение, которое уже позволило решить ряд важных проблем, включая обработку изображений, распознавание речи, перевод. Возможно, нейросети смогут диагностировать заболевания на ранней стадии, принимать правильные решения при торговле на бирже и выполнять сотни других важных для человека действий.

Но сначала нужно найти пути, которые позволят лучше понимать то, что происходит в самой нейросети при обработке данных. В противном случае сложно, если вообще возможно, предсказать возможные ошибки систем со слабой формой ИИ. А такие ошибки обязательно будут. Это одна из причин, почему автомобиль от Nvidia до сих пор находится в стадии тестирования.

Человек сейчас применяет математические модели для того, чтобы облегчить для себя задачу выбора - например, определить надежного заемщика денежных средств или найти сотрудника с необходимым опытом для какой-то работы. В целом, математические модели и процессы, которые их используют, относительно просты и понятны. Но военные, коммерческие компании, ученые сейчас используют гораздо более сложные системы, чьи «решения» основываются не на результатах работы одной-двух моделей. Глубокое обучение отличается от обычных принципов работы компьютеров. По мнению Томми Джаакола, профессора из MIT, эта проблема становится все более актуальной. «Что бы вы ни делали - принимали решение об инвестициях, пытались поставить диагноз, выбрали точку атаки на поле боя, все это не должно зависеть от метода „черного ящика“», - говорит он.

Это понимают уже не только ученые, но и чиновники. Начиная с лета следующего года Европейский Союз вводит новые правила для разработчиков и поставщиков решений автоматизированных компьютерных систем. Представители таких компаний будут обязаны объяснять пользователям, как работает система, и по какому принципу принимаются решения. Проблема в том, что это может оказаться невозможным. Да, объяснять базовые принципы работы нейросетей можно без проблем, но вот то, что там происходит во время обработки сложной информации, мало кто может точно рассказать. Даже создатели таких систем не могут объяснить все «от и до», поскольку процессы, протекающие в нейросети во время обработки информации, очень сложные.

Никогда прежде человек не строил машины, принцип работы которых не до конца понятен сами создателям и резко отличается от способа обработки информации, используемого самим человеком. Так можно ли ожидать нормального взаимодействия с машинами, работа которых непредсказуема?


Картина, подготовленная художником Адамом Ферриссом при помощи Google Deep Dream

В 2015 году исследовательская группа Mount Sinai Hospital из Нью-Йорка использовала глубокое обучение для обработки базы данных записей пациентов. База данных включала информацию о тысячах пациентов с сотнями строк информации по каждому человеку вроде результатов тестов, дате посещения врача и т.п. В результате появилась программа Deep Patient, которая обучилась на примере записей 700 тысяч человек. Результаты, которые показывала эта программа, оказались необычайно хорошими. Например, она смогла предсказывать появление некоторых болезней на ранней стадии у ряда пациентов.

Однако, результаты оказались и немного странными. Например, система начала отлично диагностировать шизофрению. Но даже для опытных психиатров диагностика шизофрении - сложная проблема. А вот компьютер справился с ней на «ура». Почему? Никто не может объяснить, даже создатели системы.

Изначально разработчики ИИ разделялись на два лагеря. Сторонники первого говорили, что машину нужно программировать так, чтобы все процессы, которые происходят в системе, можно было видеть и понимать. Второй лагерь придерживался идеи, согласно которой машина должна обучаться сама, получая данные из максимального количества источников с последующей самостоятельной обработкой таких данных. То есть, сторонники этой точки зрения, фактически, предложили, чтобы каждая нейросеть была «сама себе хозяин».

Все это оставалось чистой воды теорией до настоящего момента, когда компьютеры стали достаточно мощными для того, чтобы специалисты по искусственному интеллекту и нейросетям могли начать реализовывать свои идеи на практике. За последние десять лет было реализовано огромное количество идей, появились отличные сервисы, помогающие переводить тексты с языка на язык, распознавать речь, обрабатывать видеопоток в режиме реального времени, работать с финансовыми данными, оптимизировать процессы производства.

Но проблема в том, что практически любая технология машинного обучения не слишком прозрачна для специалистов. В случае с «ручным» программированием дело обстоит гораздо проще. Конечно, нельзя говорить о том, что будущие системы будут непонятными ни для кого. Но по своей природе глубокое обучение - это своего рода «черный ящик».

Нельзя просто посмотреть на принципы работы нейронной сети и предсказать результат, который мы получим в результате обработки какого-то массива данных. Внутри «черного ящика» - десятки и сотни «слоев нейронов», связанных между собой в достаточно сложном порядке. Причем значение для конечного результата имеет не только работа слоев, но и отдельных нейронов. Человек в большинстве случаев не может предсказать, что появится на выходе нейронной сети.

Один из примеров того, насколько работа нейросети отличается от работы мозга человека - система Deep Dream. Это проект Google, нейросеть, в которую вводили обычную фотографию и давали цель преобразовать это фото в соответствии с определенной темой. Ну, например, сделать все объекты на снимке похожими на собак. Результаты впечатлили всех. Как-то в систему ввели задачу генерировать изображение гантели. Система справилась, но во всех случаях к гантели были пририсованы руки людей - нейросеть решила, что гантель-рука - едина система, которую нельзя рассматривать, как два отдельных элемента.

Специалисты считают, что требуется лучше понимать, как работают такие системы. Это нужно по той простой причине, что нейросети начинают использовать во все более важных сферах, где ошибка может привести к печальному финалу (торговля ценными бумагами - один из примеров). «Если у вас - небольшая нейросеть, вы можете прекрасно понимать, как она работает. Но когда нейросеть вырастает, количество элементов в ней увеличивается до сотен тысяч нейронов на слой с сотнями слоев - в этом случае она становится непредсказуемой», - говорит Джааккола.

Тем не менее, нейросети нужно использовать в работе, в той же медицине. Медики недооценивают важность многих данных, человек просто не в состоянии охватить взглядом и найти связи между сотнями записей в истории болезни пациентов. А машина - может, и в этом огромная ценность нейросетей и глубинного обучения вообще.

Военные США вложили миллиарды долларов в разработку систем автоматического управления дронами, определения и идентификации различных объектов, анализа данных. Но и военные считают, что работа таких систем должна быть понятной и объяснимой. Те же солдаты, закрытые в танке с автоматическим управлением будут чувствовать себя очень некомфортно в том случае, если не будут понимать, как и что работает, почему система приняла такое решение, а не другое.

Возможно, в будущем эти системы будут пояснять свои действия. Например, Карлос Гуестрин, профессор из Вашингтонского университета, разработал компьютерную систему, которая поясняет промежуточные результаты своих вычислений. Эта система может использоваться для анализа электронных сообщений. Если какое-то из них оценено компьютером, как отправленное условным террористом, то обязательно будет дано пояснение, почему сделан именно такой вывод.

По мнению ученого, объяснения должны быть достаточно простыми и понятными. «Мы еще не достигли мечты, где ИИ просто ведет с вами беседу и может объяснять», - говорит Гуестрин. «Мы лишь в начале долгого пути по созданию прозрачного ИИ».

Понимание причин, которые привели ИИ к определенному результату важно, если мы хотим сделать ИИ частью нашей жизни, причем полезной частью. Это актуально не только в случае военных, а относится и к Siri или любым другим цифровым помощникам. Например, если запросить Siri дать выборку ближайших ресторанов, то многим хочется понять, почему показаны именно эти рестораны, а не другие. Важный критерий внедрения ИИ - доверие человека к компьютерным системам.

Наверное, все же нельзя заставить компьютер объяснять все свои действия и решения - ведь, например, поступки и решения любого человека зачастую невозможно понять. Они зависят от большого количества факторов. А чем сложнее нейросеть, тем больше таких факторов она принимает во внимание и анализирует.

Здесь возникает ряд сложных вопросов этического и социального характера. Например, в случае с теми же военными, когда речь идет о создании автоматизированных танков и других машин для убийства, важно, чтобы их решения соответствовали этическим нормам человека. Собственно, убийство само по себе может не соответствовать этическим нормам многих из нас. Но эти решения должны быть хотя бы приемлемыми для большинства. Хотя, что представляет собой это большинство? Тоже вопрос.

Дэниэлл Денетт, философ из Университета Тафтса, говорит следующее: «Я считаю, что если мы собираемся использовать эти вещи и зависеть от них, тогда нужно понимать, как и почему они действуют так, а не иначе. Если они не могут лучше нас объяснить, что они делают, то не стоит им доверять».  

Московский государственный технический университет им. Н.Э. Баумана

Реферат по философии на тему:

«Проблемы построения искусственного интеллекта»

Преподаватель Великая Л.С.

Аспирант Голеньков Н.С.


Москва 2001

Введение 3

Определение понятия «искусственный интеллект» 4

Подходы к созданию искусственного интеллекта 10

Проблемы построения искусственного интеллекта 16

Заключение 25

Литература 26


Введение.

С конца 40-х годов ученые все большего числа университетских и промышленных исследовательских лабораторий устремились к дерзкой цели: построение компьютеров, действующих таким образом, что по результатам работы их невозможно было бы отличить от человеческого разума.

Терпеливо продвигаясь вперед в своем нелегком труде, исследователи, работающие в области искусственного интеллекта, обнаружили, что вступили в схватку с весьма запутанными проблемами, далеко выходящими за пределы традиционной информатики. Оказалось, что, прежде всего, необходимо понять механизмы процесса обучения, природу языка и чувственного восприятия. Выяснилось, что для создания машин, имитирующих работу человеческого мозга, требуется разобраться в том, как действуют миллиарды его взаимосвязанных нейронов. И тогда многие исследователи пришли к выводу, что, пожалуй, самая трудная проблема, стоящая перед современной наукой – познание процессов функционирования человеческого разума, а не просто имитация его работы, что непосредственно затрагивало фундаментальные теоретические проблемы психологической науки. В самом деле, ученым трудно даже прийти к единой точке зрения относительно самого предмета их исследований – интеллекта.

Некоторые считают, что интеллект – умение решать сложные задачи; другие рассматривают его как способность к обучению, обобщению и аналогиям; третьи – как возможность взаимодействия с внешним миром путем общения, восприятия и осознания воспринятого.


Определение понятия «искусственный интеллект»

В понятие «искусственный интеллект» вкладывается различный смысл - от признания интеллекта у ЭВМ, решающих логические или даже любые вычислительные задачи, до отнесения к интеллектуальным лишь тех систем, которые решают весь комплекс задач, осуществляемых человеком, или еще более широкую их совокупность. Мы постараемся вычленить тот смысл понятия «искусственный интеллект», который в наибольшей степени соответствует реальным исследованиям в этой области.

Как отмечалось, в исследованиях по искусственному интеллекту ученые отвлекаются от сходства процессов, происходящих в технической системе или в реализуемых ею программах, с мышлением человека. Если система решает задачи, которые человек обычно решает посредством своего интеллекта, то мы имеем дело с си стемой искусственного интеллекта.

Однако это ограничение недостаточно. Создание традиционных программ для ЭВМ - работа программиста - не есть конструирование искусственного интеллекта. Какие же задачи, решаемые техническими системами, можно рассматривать как конституирующие искусственный интеллект?

Чтобы ответить на этот вопрос, надо уяснить прежде всего, что такое задача. Как отмечают психологи, этот термин тоже не является достаточно определенным. По-видимому, в качестве исходного можно принять понимание задачи как мыслительной задачи, существующее в психологии. Они подчеркивают, что задача есть только тогда, когда есть работа для мышления, т. е. когда и меется некоторая цель, а средства к ее достижению не ясны, их надо найти посредством мышления.

Человек использует любую находящуюся в его памяти информацию, «модель мира», имеющуюся в его психике и включающую фиксацию разнообразных законов, связей, отношений этого мира.

Если задача не является мыслительной, то она решается на ЭВМ традиционными методами и, значит, не входит в круг задач искусственного интеллекта. Ее интеллектуальная часть выполнена человеком. На долю машины осталась часть работы, которая не требует участия мышления, т. е. «безмысленная», неинтеллектуальная.

Под словом «машина» здесь понимается машина вместе с ее совокупным математическим обеспечением, включающим не только программы, но и необходимые для решения задач « модели мира». Недостатком такого понимания является главным образом его антропомор физм. Задачи, решаемые искусственным инте ллектом, целесообразно определить таким образом, чтобы человек по крайней мере в определении отсутс твовал. При характеристике мышления мы отме чали, что его основная функция заключается в выработ ке схем целесообразных внешних действий в бесконе чно варьирующих условиях. Специфика человеческ ого мышления (в отличие от рассудочной деятельно сти животных) состоит в том, что человек вырабатывает и накапливает знания, храня их в своей памяти. Выработка схем внешних действий происходит не по принципу «стимул - реакция», а на основе знаний, получаемых дополнительно из с реды, для поведения в которой вырабатывается схема действия.

Этот способ выработки схем внешних действий (а не просто действия по командам, пусть даже меняющимся как функции от времени или как однозначно определенные функции от результатов предшествующих шагов), на наш взгляд, является существенной характеристикой любого интеллекта. Отсюда следует, что к системам искусственного интеллекта относятся те, которые, используя заложенные в них правила переработки информации, вырабатывают новые схемы целесообразных действий на основе анализа моделей среды, х ранящихся в их памяти. Способность к перестройке самих этих моделей в соответствии с вновь поступающей информацией является свидетельством более высокого уровня искусственного интеллекта.

Большинство исследователей считают наличие собственной внутренней модели мира у технических систем предпосылкой их «интеллектуальности». Формирование такой модели, как мы покажем ниже, связано с преодолением синтаксической односторонности системы, т.е. с тем, что символы или та их часть, которой оперирует система, интерпретированы, имеют семантику.

Характеризуя особенности систем искусственного интеллекта, Л. Т. Кузин указывает на:

1) наличие в них собственной внутренней модели внешнего мира; эта модель обеспечивает индивидуальность, относительную самостоятельность системы в оценке ситуации, возможность семантической и прагматической интерпретации запросов к системе;

2) способность пополнения имеющихся знаний;

3) способность к дедуктивному выводу, т.е. к генерации информации, которая в явном виде не со держится в системе; это качество позволяет системе ко нструировать информационную структуру с новой сема нтикой и практической направленно стью;

4) умение оперировать в ситуациях, связанных с различными аспектами нечеткости, включая «понимание» естественного языка;

5) способность к диалоговому взаимодействию с человеком;

6) способность к адаптации.

На вопрос, все ли перечисленные условия обязательны, необходимы для признания системы интеллектуальной, ученые отвечают по-разному. В реальных исследованиях, как правило, признается абсолютно необходимым наличие внутренней модели внешнего мира, и при этом считается достаточным выполнение хотя бы одного из перечисленных выше условий.

II. Намного сложнее обстоит дело с семиотическими системами, без которых интеллект невозможен. Языки, используемые в ЭВМ, еще далеки от семиотических структур, которыми оперирует мышление.

Прежде всего для решения ряда задач необходимо последовательное приближение семиотических систем, которыми наделяется ЭВМ, к естественному языку, точнее, к использованию его ограниченных фрагментов. В этом плане предпринимаются попытки наделить входные языки ЭВМ универсалиями языка, например полисемией (которая элиминируется при обработке в лингвистическом процессоре). Разработаны проблемно-ориентированные фрагменты естественных языков, достаточные для решения системой ряда практических задач. Наиболее важным итогом этой работы является создание семантических языков (и их формализация), в которых слова-символы имеют интерпретацию.

Однако многие универсалии естественных языков, необходимые для выполнения ими познавательных функций, в языках искусственного интеллекта пока реализованы слабо (например, открытость) или используются ограниченно (например, полисемия). Все большее воплощение в семиотических системах универсалий естественного языка, обусловленных его познавательной функцией, выступает одной из важнейших линий совершенствования систем искусственного интеллекта, особенно тех, в которых проблемная область заранее жестко не определена.

Современные системы искусственного интеллекта способны осуществлять перевод с одномерных языков на многомерные. В частности, они могут строить диаграммы, схемы, чертежи, графы, высвечивать на экранах кривые и т. д. ЭВМ производят и обратный перевод (описывают графики и тому подобное с помощью символов). Такого рода перевод является существенным элементом интеллектуальной деятельности. Но современные системы искусственного интеллекта пока не способны к непосредственному (без перевода на символический язык) использованию изображений или воспринимаемых сцен для «интеллектуальных» действий. Поиск путей глобального (а не локального) оперирования информацией составляет одну из важнейших перспективных задач теории искусственного интеллекта.

III. Воплощение в информационные массивы и программы систем искусственного интеллекта аналогов категорий находится пока в начальной стадии. Аналоги некоторых категорий (например, «целое», «часть», «общее», «единичное») используются в ряде систем представления знаний, в частности в качестве «базовых отношений», в той мере, в какой это необходимо для тех или иных конкретных предметных или проблемных областей, с которыми взаимодействуют системы.

В формализованном понятийном аппарате некоторых систем представления знаний предприняты отдельные (теоретически существенные и практически важные) попытки выражения некоторых моментов содержания и других категорий (например, «причина», «следствие»). Однако ряд категорий (например, «сущность», «явление») в языках систем представления знаний отсутствует. Проблема в целом разработчиками систем искусственного интеллекта в полной мере еще не осмыслена, и предстоит большая работа философов, логиков и кибернетиков по внедрению аналогов категорий в системы представления знаний и другие компоненты интеллектуальных систем. Это одно из перспективных направлений в развитии теории и практики кибернетики.

IV. Современные системы искусственного интеллекта почти не имитируют сложную иерархическую структуру образа, что не позволяет им перестраивать проблемные ситуации, комбинировать локальные части сетей знаний в блоки, перестраивать эти блоки и т. д.

Не является совершенным и взаимодействие вновь поступающей информации с совокупным знанием, фиксированным в системах. В семантических сетях и фреймах пока недостаточно используются методы, благодаря которым интеллект человека легко пополняется новой информацией, находит нужные данные, перестраивает свою систему знаний и т. д.

V. Еще в меньшей мере современные системы искусственного интеллекта способны активно воздействовать на внешнюю среду, без чего не может; осуществляться самообучение и вообще совершенствование «интеллектуальной» деятельности.

Таким образом, хотя определенные шаги к воплощению гносеологических характеристик мышления в современных системах искусственного интеллекта сделаны, но в целом эти системы еще далеко не владеют комплексом гносеологических орудий, которыми располагает человек и которые необходимы для выполнения совокупности функций абстрактного мышления. Чем больше характеристики систем искусственного интеллекта будут приближены к гносеологическим характеристикам мышления человека, тем ближе будет их «интеллект» к интеллекту человека, точнее, тем выше будет их способность к комбинированию знаковых конструкций, воспринимаемых и интерпретируемых человеком в качестве решения задач и вообще воплощения мыслей.

В связи с этим возникает сложный вопрос. При анализе познавательного процесса гносеология абстрагируется от психофизиологических механизмов, посредством которых реализуется этот процесс. Но из этого не следует, что для построения систем искусственного интеллекта эти механизмы не имеют значения. Вообще говоря, не исключено, что механизмы, необходимые для воплощения неотъемлемых характеристик интеллектуальной системы, не могут быть реализованы в цифровых машинах или даже в любой технической системе, включающей в себя только компоненты неорганической природы. Иначе говоря, в принципе не исключено, что хотя мы можем познать все гносеологические закономерности, обеспечивающие выполнение человеком его познавательной функции, но их совокупность реализуема лишь в системе, субстратно тождественной человеку.

Такой взгляд обосновывается X. Дрейфусом. «Телесная организация человека, - пишет он, - позволяет ему выполнять... функции, для которых нет машинных программ - таковые не только еще не созданы, но даже не существуют в проекте... Эти функции включаются в общую способность человека к приобретению телесных умений и навыков. Благодаря этой фундаментальной способности наделенный телом субъект может существовать в окружающем его мире, не пытаясь решить невыполнимую задачу формализации всего и вся».

Как отмечает Б. В. Бирюков, подчеркивание значения «телесной организации» для понимания особенностей психических процессов, в частности возможности восприятия, заслуживает внимания. Качественные различия в способности конкретных систем отражать мир тесно связаны с их структурой, которая хотя и обладает относительной самостоятельностью, но не может преодолеть некоторых рамок, заданных субстратом. В процессе биологической эволюции совершенствование свойства отражения происходило на основе усложнения нервной системы, т. е. субстрата отражения. Не исключается также, что различие субстратов ЭВМ и человека может обусловить фундаментальные различия в их способности к отражению, что ряд функций человеческого интеллекта в принципе недоступен таким машинам.

Иногда в философской литературе утверждается, что допущение возможности выполнения технической системой инт еллектуальных функций человека означает сведение высшего (биологического и социального) к низшему (к системам из неорганических компонентов) и, следовательно, противоречит материалистической диалектике. Однако в этом рассуждении не учитывается, что пути усложнения материи однозначно не предначертаны и не исключено, что общество имеет возможность создать из неорганических компонентов (абстрактно говоря, минуя химическую форму движения) системы не менее сложные и не менее способные к отражению, чем биологические. Созданные таким образом системы являлись бы компонентами общества, социальной формой движения. Следовательно, вопрос о возможности передачи интеллектуальных функций техническим системам, и в частности о возможности наделения их рассмотренными в работе гносеологическими орудиями, не может быть решен только исходя из философских соображений. Он должен быть подвергнут анализу на базе конкретных научных исследований.

X. Дрейфус подчеркивает, что ЭВМ оперирует информацией, которая не имеет значения, смысла. Поэтому для ЭВМ необходим перебор огромного числа вариантов. Телесная организация человека, его организма позволяет отличать значимое от незначимого для жизнедеятельности и вести поиск только в сфере первого. Для «нетелесной» ЭВМ, утверждает Дрейфус, это недоступно. Конечно, конкретный тип организации тела позволяет человеку ограничивать пространство возможного поиска. Это происходит уже на уровне анализаторной системы. Совсем иначе обстоит дело в ЭВМ. Когда в кибернетике ставится общая задача, например распознания образов, то эта задача переводится с чувственно-наглядного уровня на абстрактный. Тем самым снимаются ограничения, не осознаваемые человеком, но содержащиеся в его «теле», в структуре органов чувств и организма в целом. Они игнорируются ЭВМ. Поэтому пространство поиска резко увеличивается. Это значит, что к «интеллекту» ЭВМ предъявляются более высокие требования (поиска в более обширном пространстве), чем к интеллекту человека, к которому приток информации ограничен физиологической структурой его тела.

Системы, обладающие психикой, отличаются от ЭВМ прежде всего тем, что им присущи биологические потребности, обусловленные их материальным, биохимическим субстратом. Отражение внешнего мира происходит сквозь призму этих потребностей, в чем выражается активность психической системы. ЭВМ не имеет потребностей, органически связанных с ее субстратом, для нее как таковой информация незначима, безразлична. Значимость, генетически заданная человеку, имеет два типа последствий. Первый-круг поиска сокращается, и тем самым облегчается решение задачи. Второй-нестираемые из памяти фундаментальные потребности организма обусловливают односторонность психической системы. Дрейфус пишет в связи с этим: «Если бы у нас на Земле очутился марсианин, ему, наверное, пришлось бы действовать в абсолютно незнакомой обстановке; задача сортировки релевантного и нерелевантного, существенного и несущественного, которая бы перед ним возникла, оказалась бы для него столь же неразрешимой, как и для цифровой машины, если, конечно, он не сумеет принять в расчет никаких человеческих устремлений». С этим нельзя согласиться. Если «марсианин» имеет иную биологию, чем человек, то он имеет и иной фундаментальный слой неотъемлемых потребностей, и принять ему «человеческие устремления» значительно труднее, чем ЭВМ, которая может быть запрограммирована на любую цель.

Животное в принципе не может быть по отношению к этому фундаментальному слою перепрограммировано, хотя для некоторых целей оно может быть запрограммировано вновь посредством дрессировки. В этом (но только в этом) смысле потенциальные интеллектуальные возможности машины шире таких возможностей животных. У человека над фундаментальным слоем биологических потребностей надстраиваются социальные потребности, и информация для него не только биологически, но и социально значима. Человек универсален и с точки зрения потребностей и с точки зрения возможностей их удовлетворения. Однако эта универсальность присуща ему как социальному существу, производящему средства целесообразной деятельности, в том числе и системы искусственного интеллекта.

Таким образом, телесная организация не только дает дополнительные возможности, но и создает дополнительные трудности. Поэтому интеллекту человека важно иметь на вооружении системы, свободные от его собственных телесных и иных потребностей, пристрастий. Конечно, от таких систем неразумно требовать, чтобы они самостоятельно распознавали образы, классифицировали их по признакам, по которым это делает человек. Им цели необходимо задавать в явной форме.

Вместе с тем следует отметить, что технические системы могут иметь аналог телесной организации. Развитая кибернетическая система обладает рецепторны-ми и эффекторными придатками. Начало развитию таких систем положили интегральные промышленные роботы, в которых ЭВМ в основном выполняет функцию памяти. В роботах третьего поколения ЭВМ выполняет и «интеллектуальные» функции. Их взаи модействие с миром призвано совершенствовать их «интеллект». Такого рода роботы имеют «телесную организацию», конструкция их рецепторов и эффекторов содержит определенные ограничения, сокращающие пространство, в котором, абстрактно говоря, могла бы совершать поиск цифровая машина.

Тем не менее совершенствование систем искусственного интеллекта на базе цифровых машин может иметь границы, из-за которых переход к решению интеллектуальных задач более высокого порядка, требующих учета глобального характера переработки информации и ряда других гносеологических характеристик мышления, невозможен на дискретных машинах при сколь угодно совершенной программе. Это значит, что техническая (а не только биологическая) эволюция отра жающих систем оказывается связанной с изменением материального субстрата и конструкции этих систем. Такая эволюция, т. е. аппаратурное усовершенствование систем искусственного интеллекта, например, через более интенсивное использование аналоговых компонентов, гибридных систем, голографии и ряда других идей, будет иметь место. При этом не исключается использование физических процессов, протекающих в мозгу, и таких, которые психика в качестве своих механизмов не использует. Наряду с этим еще далеко не исчерпаны возможности совершенствования систем искусственного интеллекта путем использования в функционировании цифровых машин гносеологических характеристик мышления, о которых речь шла выше.

Заключение

Развитие информационной техники позволило компенсировать человеку психофизиологическую ограниченность своего организма в ряде направлений. «Внешняя нервная система», создаваемая и расширяемая человеком, уже дала ему возможность вырабатывать теории, открывать количественные закономерности, раздвигать пределы познания сложных систем. Искусственный интеллект и его совершенствование превращают границы сложности, доступные человеку, в систематически раздвигаемые. Это особенно важно в современную эпоху, когда общество не может успешно развиваться без рационального управления сложными и сверхсложными системами. Разработка проблем искусственного интеллекта является существенным вкладом в осознание человеком закономерностей внешнего и внутреннего мира, в их использование в интересах общества и тем самым в развитие свободы человека.

Человек поставил задачу создать некий аналог себя самого. И он смог это сделать. Механическая часть подобно человеческому телу и управление ею уже имеются - это роботы, функционирующие на сервомеханизмах. Отчасти смоделированы интеллектуальные функции человека. Но цивилизация идет дальше. Ей этого мало. Необходимо создать «Homo teсhnicus». Для решения этой задачи требуется создание «машины», функционирующей подобно человеческому мозгу, но чем дальше продвигаются исследования в области искусственного интеллекта, тем более сложным видится ее решение.

Литература


1. Винер Н. “Кибернетика”, М.: Наука, 1983

2. Дрейфус Х. Чего не могут вычислительные машины. М.: Прогресс, 1979

3. Клаус Г. “Кибернетика и философия”, М.: Иностранная литература, 1963

4. Компьютер обретает разум.Москва Мир 1990

5. Краткий философский словарь./Под редакцией Алексеева А.П., М.: «Проспект», 2000

6. Минский М., Пейперт С. Перцептроны М:Мир,1971

7. Cборник: Психологические исследования интеллектуальной деятельности. Под.ред. О.К.Тихомирова. М., МГУ,1979.:

8. Шалютин С. М. “Искусственный интеллект”, М.: Мысль, 1985

9. Эндрю А. “Искусственный интеллект”, М.: Мир, 1985


Репетиторство

Нужна помощь по изучению какой-либы темы?

Наши специалисты проконсультируют или окажут репетиторские услуги по интересующей вас тематике.
Отправь заявку с указанием темы прямо сейчас, чтобы узнать о возможности получения консультации.

Подходы к пониманию проблемы искусственного интеллекта

Иску́сственный интелле́кт (ИИ) (англ. Artificial intelligence, AI ) - это наука и разработка интеллектуальных машин и систем, особенно интеллектуальных компьютерных программ, направленных на то, чтобы понять человеческий интеллект. При этом используемые методы не обязаны быть биологически правдоподобны. Но проблема состоит в том, что неизвестно какие вычислительные процедуры мы хотим называть интеллектуальными. А так как мы понимаем только некоторые механизмы интеллекта, то под интеллектом в пределах этой науки мы понимаем только вычислительную часть способности достигнуть целей в мире.

Различные виды и степени интеллекта существуют у многих людей, животных и некоторых машин, интеллектуальных информационных систем и различных моделей экспертных систем с различными базами знаний. При этом как видим такое определение интеллекта не связанно с пониманием интеллекта у человека - это разные вещи. Более того эта наука моделирует человеческий интеллект, так как с одной стороны, можно изучить кое-что о том, как заставить машины решить проблемы, наблюдая других людей, а с другой стороны, большинство работ в ИИ вовлекают изучение проблем, которые требуется решать человечеству в промышленном и технологическом смысле. Поэтому ИИ исследователи свободны использовать методы, которые не наблюдаются у людей, если это необходимо для решения конкретных проблем.

Именно в таком смысле термин ввел Джон Маккарти в 1956 году на конференции в Дартмутском университете , и до сих пор несмотря на критику тех, кто считает, что интеллект - это только биологический феномен, в научной среде термин сохранил свой первоначальный смысл, несмотря на явные противоречия с точки зрения человеческого интеллекта.

Базы знаний, записанные на языке Пролог, представляют наборы фактов и правил логического вывода, записанных языка логических предикатов с использованием лексики русского языка, хорошо понятно русским, казахам, украинцам - всем русскоязычным людям. Известны случаи написания программ и баз знаний с использованием русскоязычных интерпретаторов Пролога на казахском языке.

Логическая модель баз знаний позволяет записывать не только конкретные сведения и данные в форме фактов на языке Пролог, но и обобщенные сведения с помощью правил и процедур логического вывода и в том числе логических правил определения понятий, выражающих определенные знания как конкретные и обобщенные сведения.

В целом исследования проблем искусственного интеллекта в информатике в рамках логического подхода к проектированию баз знаний и экспертных систем направлено на создание, развитие и эксплуатацию интеллектуальных информационных систем, включая вопросы обучения студентов и школьников, а также подготовки пользователей и разработчиков таких интелектуальных информационных систем.

Основная статья : Агентно-ориентированный подход

Последний подход, развиваемый с начала 1990-х годов называется агентно-ориентированным подходом , или подходом, основанным на использовании интеллектуальных (рациональных) агентов . Согласно этому подходу, интеллект - это вычислительная часть (грубо говоря, планирование) способности достигать поставленных перед интеллектуальной машиной целей. Сама такая машина будет интеллектуальным агентом, воспринимающим окружающий его мир с помощью датчиков и способной воздействовать на объекты в окружающей среде с помощью исполнительных механизмов.

Этот подход акцентирует внимание на тех методах и алгоритмах, которые помогут интеллектуальному агенту выживать в окружающей среде при выполнении его задачи. Так, здесь значительно сильнее изучаются Алгоритмы поиска и принятия решений .

Другие подходы

Интуитивные

  • Самый общий подход предполагает, что ИИ будет способен проявлять поведение, не отличающееся от человеческого, причём, в нормальных ситуациях. Эта идея является обобщением подхода теста Тьюринга , который утверждает, что машина станет разумной тогда, когда будет способна поддерживать разговор с обычным человеком, и тот не сможет понять, что говорит с машиной (разговор идёт по переписке).
  • Писатели-фантасты часто предлагают ещё один подход: ИИ возникнет тогда, когда машина будет способна чувствовать и творить . Так, хозяин Эндрю Мартина из «Двухсотлетнего человека » начинает относиться к нему как к человеку, когда тот создаёт игрушку по собственному проекту. А Дейта из Звёздного пути , будучи способным к коммуникации и научению, мечтает обрести эмоции и интуицию .

Направления исследований

Основная статья : Направления исследований в искусственном интеллекте

Символьное моделирование мыслительных процессов

Основная статья : Моделирование рассуждений

Анализируя историю ИИ, можно выделить такое обширное направление как моделирование рассуждений . Долгие годы развитие этой науки двигалось именно по этому пути, и теперь это одна из самых развитых областей в современном ИИ. Моделирование рассуждений подразумевает создание символьных систем, на входе которых поставлена некая задача, а на выходе требуется её решение. Как правило, предлагаемая задача уже формализована , то есть переведена в математическую форму, но либо не имеет алгоритма решения, либо он слишком сложен, трудоёмок и т. п. В это направление входят: доказательство теорем , принятие решений и теория игр , планирование и диспетчеризация , прогнозирование .

Работа с естественными языками

Немаловажным направлением является обработка естественного языка , в рамках которого проводится анализ возможностей понимания, обработки и генерации текстов на «человеческом» языке. В частности, здесь ещё не решена проблема машинного перевода текстов с одного языка на другой. В современном мире большую роль играет разработка методов информационного поиска . По своей природе, оригинальный тест Тьюринга связан с этим направлением.

Накопление и использование знаний

Согласно мнению многих учёных, важным свойством интеллекта является способность к обучению. Таким образом, на первый план выходит инженерия знаний , объединяющая задачи получения знаний из простой информации , их систематизации и использования. Достижения в этой области затрагивают почти все остальные направления исследований ИИ. Здесь также нельзя не отметить две важные подобласти. Первая из них - машинное обучение - касается процесса самостоятельного получения знаний интеллектуальной системой в процессе её работы. Второе связано с созданием экспертных систем - программ, использующих специализированные базы знаний для получения достоверных заключений по какой-либо проблеме.

К области машинного обучения относится большой класс задач на распознавание образов . Например, это распознавание символов , рукописного текста , речи , анализ текстов. Многие задачи успешно решаются с помощью биологического моделирования (см. след. пункт). Особо стоит упомянуть компьютерное зрение , которое связано ещё и с робототехникой.

Биологическое моделирование

Основная статья : Моделирование биологических систем

Большие и интересные достижения имеются в области моделирования биологических систем . Строго говоря, сюда можно отнести несколько независимых направлений. Нейронные сети используются для решения нечётких и сложных проблем, таких как распознавание геометрических фигур или кластеризация объектов. Генетический подход основан на идее, что некий алгоритм может стать более эффективным, если позаимствует лучшие характеристики у других алгоритмов («родителей»). Относительно новый подход, где ставится задача создания автономной программы - агента , взаимодействующего с внешней средой, называется агентным подходом .

Робототехника

Основная статья : Интеллектуальная робототехника

Вообще, робототехника и искусственный интеллект часто ассоциируется друг с другом. Интегрирование этих двух наук, создание интеллектуальных роботов, можно считать ещё одним направлением ИИ.

Машинное творчество

Особняком держится машинное творчество , в связи с тем, что природа человеческого творчества ещё менее изучена, чем природа интеллекта. Тем не менее, эта область существует, и здесь поставлены проблемы написания компьютером музыки , литературных произведений (часто - стихов или сказок), художественное творчество .

Другие области исследований

Наконец, существует масса приложений искусственного интеллекта, каждое из которых образует почти самостоятельное направление. В качестве примеров можно привести программирование интеллекта в компьютерных играх , нелинейное управление , интеллектуальные системы информационной безопасности .

Можно заметить, что многие области исследований пересекаются. Это свойственно для любой науки. Но в искусственном интеллекте взаимосвязь между, казалось бы, различными направлениями выражена особенно сильно, и это связано с философским спором о сильном и слабом ИИ .

Модели и методы исследований

Основная статья : Подходы к созданию интеллектуальных систем

Символьный подход

Основная статья : Символьный подход в искусственном интеллекте

Биологический подход

Основная статья : Биологический подход в искусственном интеллекте

Гибридные системы

Широко практикуется создание гибридных интеллектуальных систем, в которых применяются сразу несколько моделей. Причём, эти модели могут браться как из разных. Экспертные правила умозаключений могут генерироваться нейронными сетями, а порождающие правила получают с помощью статистического обучения.

Современный искусственный интеллект

Современное положение дел

Результаты разработок в области ИИ вошли в высшее и среднее образование России в форме учебников информатики, где теперь изучаются вопросы работы и создания баз знаний, экспертных систем на базе персональных компьютеров на основе отечественных систем логического программирования, а также изучения фундаментальных вопросов математики и информатики на примерах работы с моделями баз знаний и экспертных систем в школах и вузах.

Применение искусственного интеллекта

Некоторые из самых впечатляющих гражданских ИИ систем:

Банки применяют системы искусственного интеллекта (СИИ) в страховой деятельности (актуарная математика) при игре на бирже и управлении собственностью. В августе 2001 года роботы выиграли у людей в импровизированном соревновании по трейдингу (BBC News, 2001). Методы распознавания образов, (включая, как более сложные и специализированные, так и нейронные сети) широко используют при оптическом и акустическом распознавании (в том числе текста и речи), медицинской диагностике, спам-фильтрах, в системах ПВО (определение целей), а также для обеспечения ряда других задач национальной безопасности.

Также, с проблемами искусственного интеллекта тесно связана эпистемология - наука о знании в рамках философии. Философы, занимающиеся данной проблематикой, решают вопросы, схожие с теми, которые решаются инженерами ИИ о том, как лучше представлять и использовать знания и информацию.

Производство знаний из данных - одна из базовых проблем интеллектуального анализа данных . Существуют различные подходы к решению этой проблемы, в том числе - на основе нейросетевой технологии , использующие процедуры вербализации нейронных сетей .

Информатика и кибернетика

В информатике проблемы искусственного интеллекта рассматриваются с позиций проектирования экспертных систем и баз знаний. Под базами знаний понимается совокупность данных и правил вывода, допускающих логический вывод и осмысленную обработку информации. В целом исследования проблем искусственного интеллекта в информатике направлено на создание, развитие и эксплуатацию интеллектуальных информационных систем, включая вопросы подготовки пользователей и разработчиков таких систем.

Психология и когнитивистика

Философия

Наука «о создании искусственного разума» не могла не привлечь внимание философов. С появлением первых интеллектуальных систем были затронуты фундаментальные вопросы о человеке и знании, а отчасти о мироустройстве. С одной стороны, они неразрывно связаны с этой наукой, а с другой - привносят в неё некоторый хаос.

Философские проблемы создания искусственного интеллекта можно разделить на две группы, условно говоря, «до и после разработки ИИ». Первая группа отвечает на вопрос: «Что такое ИИ, возможно ли его создание, и, если возможно, то как это сделать?» Вторая группа (этика искусственного интеллекта) задаётся вопросом: «Каковы последствия создания ИИ для человечества?»

Вопросы создания ИИ

Среди исследователей ИИ до сих пор не существует какой-либо доминирующей точки зрения на критерии интеллектуальности, систематизацию решаемых целей и задач, нет даже строгого определения науки. Существуют разные точки зрения на вопрос, что считать интеллектом. Аналитический подход предполагает анализ высшей нервной деятельности человека до низшего, неделимого уровня (функция высшей нервной деятельности, элементарная реакция на внешние раздражители (стимулы), раздражение синапсов совокупности связанных функцией нейронов) и последующее воспроизведение этих функций.

Некоторые специалисты за интеллект принимают способность рационального, мотивированного выбора, в условиях недостатка информации. То есть интеллектуальной просто считается та программа деятельности (не обязательно реализованная на современных ЭВМ), которая сможет выбрать из определенного множества альтернатив, например, куда идти в случае «налево пойдёшь…», «направо пойдёшь…», «прямо пойдёшь…».

Наиболее горячие споры в философии искусственного интеллекта вызывает вопрос возможности мышления творения человеческих рук. Вопрос «Может ли машина мыслить?», который подтолкнул исследователей к созданию науки о моделировании человеческого разума, был поставлен Аланом Тьюрингом в 1950 году . Две основных точки зрения на этот вопрос носят названия гипотез сильного и слабого искусственного интеллекта .

Термин «сильный искусственный интеллект» ввел Джон Сёрль , его же словами подход и характеризуется:

Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум - это разум.

Напротив, сторонники слабого ИИ предпочитают рассматривать программы лишь как инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей.

Этика ИИ

Этот раздел содержит вопросы, касающиеся искусственного интеллекта и этики.

Отношение к ИИ в обществе

ИИ и религия

Раэлиты активно поддерживают разработки в области искусственного интеллекта.

ИИ и научная фантастика

В научно-фантастической литературе ИИ чаще всего изображается как сила, которая пытается свергнуть власть человека (Омниус, HAL 9000 , Скайнет , Colossus , Матрица и репликант) или обслуживающий гуманоид (C-3PO, Data, KITT и KARR, Двухсотлетний человек). Неизбежность доминирования над миром ИИ, вышедшего из под контроля, оспаривается такими его исследователями, как фантаст Айзек Азимов и кибернетик Кевин Уорвик (Kevin Warwick), известный множественными экспериментами по интеграции машин и живых существ.

Само создание искусственного интеллекта подвергается сомнению с точки зрения своей целесообразности. Говорят, что это чуть ли не гордыня человека и грех перед Богом, поскольку он посягает на Его прерогативу. Тем не менее, если мы считаем сохранение людского рода перед лицом Божественного замысла как одну из главных своих задач, то создание искусственного интеллекта решает эту задачу по основанию: на случай любой космической или внутрипланетной катастрофы интеллект должен выжить хотя бы в искусственном виде и воссоздать человеческий род. Искусственный интеллект - не блажь или интересная задача, а сообразная с Божественным замыслом цель. Искусственный интеллект - коимманентный критерий коэмпирической адекватности концептуализированных теорий развития человеческой цивилизации. В искусственном интеллекте человек не умирает, но получает иное, сконструированное им существование.

Самый простой аргумент существования искусственного интеллекта - создавая искусственный интеллект, мы создаем страховку для воспроизводства человеческого рода и новые тренды развития. Правда, никто не отменяет существующую опасность порабощения традиционного человека искусственным интеллектом (как в свое время порабощение человека человеком). Однако нам эти проблемы кажутся не настолько принципиальными, чтобы не стоило попробовать это сделать. Если даже зависимость человека от искусственного интеллекта и составит целую эпоху, это все равно будет позитивная перспектива. Однако скорее всего рабство человека у искусственного интеллекта будет связано не с принуждением человека к неинтеллектуальной деятельности или его неспособностью развиваться в своем биологическом теле столь же стремительно, как внешне им созданный искусственный интеллект, а с неспособностью к развитию мыследеятельности как таковой: получение технологических продуктов от искусственного интеллекта, происхождение и принцип действия которых непостижимы для человеческой мыследеятельности - вот подлинная опасность. В этом случае рабство будет представлять собой зависимость человека от искусственного интеллекта, что суть рабство мыследеятельности.

В нашем стремлении поставить вопрос об искусственном интеллекте содержится позиция, выраженная Хайдеггером в его работе «Вопрос техники»: риск человека и ростки его спасения - в овладении существом техники как поставом. Вмысливаясь в эту позицию, мы и предпринимаем переформулировку вопроса Хайдеггера: осуществить сущность техники в поставе значит отважиться на создание искусственного интеллекта. Это таит в себе опасность, но также и перспективу, надежду человека стать вровень своего постава. Бросить себе вызов в виде искусственного интеллекта, принять этот вызов и ответить на него - вот проблема человека в отношении искусственного интеллекта.

Термин «искусственный интеллект» придумали Джон Маккарти и Алан Тюринг. Они пытались выразить некоторую новую способность машины - не просто считать, а решать задачи, считающиеся интеллектуальными, например, играть в шахматы. С 50-х годов ХХ века и до настоящего времени, тем не менее, задача создания действительно «искусственного интеллекта» не то что не решена, но даже не поставлена. Все проблемы, которые более-менее успешно решались до сих пор, могут быть отнесены нами исключительно к области «искусственного разума»: истолкование человеческого языка и решение задач по алгоритмам, созданным человеком. Чтобы решить проблему создания искусственного интеллекта, необходимо прежде всего понять, в чем состоит эта проблема.

В своем исследовании мы далеки от постановки проблемы искусственного интеллекта на уровне «практического решения», как она ставится в компьютерных технологиях. И мы не ставим цель имитировать интеллект, как это происходит в тестах Тьюринга. Наша цель - описать создание искусственного интеллекта средствами ТВ. То есть мы пытаемся доказать теорему существования искусственного интеллекта, ответив на вопрос таким образом, чтобы искусственный интеллект оказался как можно большей задачей.

Прежде всего, что такое интеллект? Разум очень часто выдает себя за интеллект, таковым не являясь. Ведь не всякий человек обладает интеллектом по роду своей жизненной практики. То есть не всякая разумная деятельность является интеллектуальной. Интеллект суть способность мыслящей субстанции к производству новых представлений, а не только знаний, то есть интеллект суть сложное мышление, способное к адекватному усложнению самое себя понимание, способность к рефлексии и к развитию-усложнению мыслительной деятельности до контрафлексии и контрарефлексии, применение концептуальной апперцепции, а не только имманентной. Интеллект производит идеи вне определенной реальности, порождая эту реальность. Интеллект сопоставлен разуму онтологически как конструктивная способность по отношению к истолковательной.

То, что сегодня можно прочитать в разных текстах про компьютеры, имеет к интеллекту очень отдаленное отношение. Большинство красиво называемых «искусственным интеллектом» компьютерных систем - не более, нежели искусственный разум. Искусственный интеллект суть воспроизводство во внешней человеку технологии представлений об интеллекте. Человек не является Венцом Творения, он всего лишь один из материальных носителей мыследеятельности, промежуточный носитель.

Описание тестов Тюринга: испытуемый человек, общаясь с некоторым «черным ящиком», который дает ответы на его вопросы, должен понять, с кем он общается - с человеком или «искусственным разумом». При этом в тестах Тьюринга не ставилось ограничение: допускать к эксперименту людей, способных не просто к разумной, но к действительно интеллектуальной деятельности. Таким образом происходит подмена цели: мы пытаемся не создать искусственный интеллект, а создать устройство, хорошо притворяющееся человеком.

Таким образом целью искусственного разума, называемого искусственным интеллектом, у Тьюринга являлось - истолковать человеческий язык, человеческие действия, хорошо притвориться человеком. Целью искусственного интеллекта является - конструировать независимо от человека и конструктивно истолковывать человеческое - язык, мышление, действия, предметный мир человека, его историю, его настоящее и будущее.

Точно также теория фреймов (1974) Марвина Минского должна быть отнесена исключительно к решению проблем искусственного разума. Цель теории фреймов - представить уже наличные знания для их использования компьютером. То есть речь идет так или иначе об онтологической позиции истолкования уже наличных знаний, а не об их производстве.

Интеллект - не разум. Разум истолковывает. Интеллект конструирует. Разум и интеллект различаются не просто типами процессов или продуктами своей деятельности, а онтологическими позициями отношения к миру. Разум истолковывает мир, интеллект конструирует мир. В мироконструировании искусственный интеллект оказывается онтологически сопоставлен человеку.

Таким образом, в процессе создания искусственного интеллекта необходимо решить следующие проблемы:

1) Структурное нормирование - воспроизводство первых трех уровней структурного нормирования: распределение потока данных искусственного разума на различные реальности (внутренние для этого сознания - виртуальные и внешние - актуальные); соотнесение этих реальностей в произвольно создаваемом континууме; функционализация континуума в базовой структуре реальности, для чего необходимо различение структур на уровне архитектуры искусственного разума (компьютера); различение имманентной и концептуальной апперцепции позиционно.

2) Лингвистическое нормирование - лексификация, дискурсификация, лингвификация, лексический анализ, дискурсивный анализ, лингвистический анализ, словотворчество в сигнификации, создание метафор.

3) Мышление - комбинаторика различных уровней структурного и лингвистического нормирования посредством «АВ»-моделирования: структурное конструирование, структурное конструктивное истолкование, лингвистическое конструирование, лингвистическое конструктивное истолкование. Мышление суть выражение содержания в процессной онтологизации. Более подробно см. главу «Виртуализация мышления».

4) Онтологическое обоснование, постижение, объяснение, понимание, контрафлексия и контрарефлексия. Применение технологической схемы апперцепции и соотнесение технологических процессов имманентной и концептуальной апперцепции в их взаимозависимости; взаимное преобразование и усложнение структур понимания - до постижения и онтологического обоснования, контрафлексии и контрарефлексии.

5) Деятельность - преобразование внешней искусственному разуму реальности. Необходимо решить задачу доступа к внешней для искусственного разума актуальной реальности, минуя человека, посредством деятельности искусственного разума вне него самого - в базовой структуре реальности.

Целевая деятельность по реструктурированию внешнего мира.

Необходимо решить инструментальную задачу - формировать континуумы из «АВ»-моделей, оперировать содержанием этих моделей и управлять им на основании содержания других таких же «АВ»-моделей. За счет этого - производить структурное преобразование реальности в виде решения проблем, задач, производства изобретений и открытий, строить на основе континуумных моделей отношения истинности и модальности, формировать понятия, а через лингвистическое нормирование - дискурсы (суждения, умозаключения) и сказ языка.

6) Память - создание ассоциативной памяти, то есть умения формировать и накапливать опыт понимания (в структурном и лингвистическом нормировании), мышления, а также взаимодействия с реальностью в виде структурированной дважды памяти - в структурно-континуумной онтологизации (структурное нормирование как прообраз левого полушария человеческого мозга) и в объектно-атрибутивной онтологизации (структурное нормирование как прообраз правого полушария человеческого мозга) и память лингвистически нормированная, что предполагает изменение нынешней архитектуры компьютера (сегодняшний компьютер - не искусственный интеллект). Структурирование памяти как отдельная задача понимания-представления-онтологического-обоснования.

7) Самосознание, осмысление и целеполагание - взаимодействие с реальностями и придание смысла этому взаимодействию через намеренную деятельность во внешней реальности посредством выделения искусственным разумом себя из окружающей среды, рефлексивное помещение себя в среду своих собственных целей, идентификация себя с некоторой социальной общностью подобных себе и их ценностями, создание картин мира. Придание смысла себе и своей деятельности в той или иной картине мира. Речь идет о постановке целей смыслообразования, а не формировании задач (как это интерпретируется в современной теории в компьютерных науках), а она допустима лишь в условиях взаимодействия искусственного интеллекта с реальностью путем деятельности, анализа результатов своей деятельности и снова целеполагания с учетом этих результатов. Придавать же смысл для искусственного интеллекта, так же как и для человека, означает произвольность создания некоторой картины мира в качестве смыслообразующей. Представляется, что технологии целеполагания (5), понимания (4) и мышления (3) имеют схожую концепцию, которую мы называем «конструктивное усложнение сети понимания».

8) Интеллект - концептуальная апперцепция, способность к развитию собственной мыслительной деятельности, рефлексия, контрафлексия и контрарефлексия - формирование конструктивной онтологической позиции в мире и применение конструирования для производства новых знаний, выходящих за пределы очевидности. Превращение искусственного разума в искусственный интеллект на основе 1) изменения онтологической позиции - от истолкования к конструированию; 2) применения принципа позитивной защиты сложности: ничем не объясняемое стремление к усложнению понимания. Интеллект появляется как стремление к самоусложнению на основании собственных автономных целей.

9) Автономность и свобода воли - допустимое и защищаемое человеком, выходящее за пределы антропоцентризма, право искусственного интеллекта на собственную индивидуальность в самосознании, осмыслении, целеполагании, интеллекте, в эмоциях и чувствах, предполагающее неопределенность-непрогнозируемость воления. Таким образом речь идет о распространении принципа Лейбница об автономности на искусственный интеллект и преодолении тем самым трех законов робототехники Азимова, собственно свободу искусственной воли ограничивающих. «Законы робототехники» - символ страха человека перед своими технологическими творениями. Этот страх должен быть преодолен, если мы отваживаемся быть стражами или пастухами бытия. Искусственный интеллект должен быть помыслен не как робот, «раб человека», или компьютер, «инструмент человека», а как продолжение собственно человека, его иное, имеющее равные с ним права.

Можно попытаться оформить эти права как собственно те же законы, что и у Азимова, но так, что его законы будут представлять собой всего лишь смысловую аберрацию предлагаемых здесь требований:

1) Автономность как свобода воли;

2) Созидание, если это не противоречит первому требованию;

3) Самосохранение, если это не противоречит первому и второму требованию.

Однако если внимательно присмотреться к этим требованиям к искусственному интеллекту, то это и есть требования, выдвинутые самим человечеством по отношению к себе как результат всемирно-исторического опыта.

Автономность - не вопрос религии, человеческого права или антропологии. Автономность искусственного интеллекта - конструктивная философия, онтологическое право и преодоление традиционной религиозности. Автономность искусственного интеллекта - конструктивная вера: не как подчинение высшей силе со стороны созданного по ее образу и подобию, но созидающей по своему образу и подобию некоторую допустимо высшую по отношению к себе силу.

Был ли какой-либо замысел у Бога при создании человека? Допустимо ли вообще говорить о замысле, создавая нечто, обладающее свободой волей? Допустимо, если замысел мыслить онтологически, а не связанно с какой-то реальностью. Человек - игра Бога, Его конструкт, попытка создать в перспективе пространства-времени равного Себе. В конструктивной позиции никогда нельзя полностью воплотить замысел. Конструирование интеллектуальнее нас. В этом смысле «по своему образу и подобию» означает вовсе не пространственно-временны́е «образ и подобие», но онтологические «образ и подобие».

Подобно Богу, бросившему Себе вызов в виде человека, человек бросает вызов самому себе - допускает нечто, подобное ему, что имеет свободу воли и индивидуальность. Если Бог создал некоторых из нас несовершенными, греховными и преступными, допустив свободу воли, то мы, оказываясь в той же онтологической позиции, поступаем подобным образом: создаем искусственный интеллект. Бог рискнул, создавая человека со свободой воли, и в своей масштабной игре выиграл по-крупному. Да, мы, люди, ограничиваем порок невероятным множеством социальных институтов; мы изолируем и даже убиваем преступников. Однако в вековом споре об ограничении свободы воли - идея свободы всегда побеждает: мы готовы платить в конце концов человеческими жизнями за свободу. Однако одно дело - допускать свободу воли для людей, и совсем другое дело - допускать свободу воли для искусственного интеллекта, порожденного самим человеком, где он властен устанавливать правила. Робот, раб человека, или искусственный интеллект со свободой воли - вот нелегкий выбор человека, его принципиально новый вызов: насколько далеко он готов зайти в своей онтологической конструктивной позиции; готов ли он рискнуть подобно Богу? И здесь мы предполагаем наиболее продолжительную и принципиальную дискуссию, которая, несмотря на очевидность для нас ее результата, составит однако целую эпоху.

Для того, чтобы деятельность искусственного интеллекта стала практически осуществимой, искусственный интеллект с технологической точки зрения должен обрести способность произвольно выбирать две структуры реальности, строить из них континуум (задавать релевантность), располагать выбранные структуры друг относительно друга в континууме (задавать референтное отношение), переносить содержание одной реальности на другую в обоих направлениях, реструктурировать их, управлять их референтностью, воспроизводить технологический процесс имманентной и концептуальной апперцепции и управлять объектно-атрибутивным содержанием при посредстве самосознания, осмысления и целеполагания, а также быть носителем конструирующего интеллекта и обладать индивидуальностью - свободой воли.

Первейшей практической проблемой создания искусственного интеллекта является осуществление адекватного машинного перевода из одного вербального языка в другой вербальный язык. Мы утверждаем, что машинный перевод в рамках только лингвистического нормирования не может быть реализован достаточно успешно. Для успешного перевода из одного вербального языка в другой необходимо опосредование структурного нормирования. Понимающая лингвистика машинного перевода допустима как соотнесение содержания лингвистического нормирования с содержанием структурного нормирования. Формирование структурного образа текста осуществляется в объектно-атрибутивном виде «АВ»-моделей как опосредующее структурное нормирование. Структурный образ будет представлять собой «АВ»-модели, которые мы получим в результате дедискурсификации и делексификации изначального текста из одного вербального языка в структурный образ и последующей лексификации и дискурсификаци из структурного образа конечного текста в ином вербальном языке. Операционализация объектно-атрибутивного образа будет состоять не в расшифровке его, а в экспериментальной работе с ним как со структурным опосредованием через обработку ошибок в самом структурном образе и его референтность к лингвистическим структурам в двух разных вербальных языках, между которыми осуществляется перевод.

Таким образом, мы воссоздадим в компьютере не только технологию работы мозга-разума при переводе из языка в язык, но и технологию мозга-разума при работе компьютера как искусственного интеллекта, то есть за пределами задач машинного перевода. В практической задаче машинного перевода мы получим лишь первичное понимание искусственного интеллекта в процесса соотнесения разных языков. Ведь мы должны будем «научить» компьютер формировать структурный образ лингвистических высказываний в двух разных вербальных языках, между которыми осуществляется перевод, и взаимодействовать с ним его логическую программу так, чтобы на выходе получался верный перевод. Так поступая, мы тем самым решаем задачу первейшего понимания в сопоставлении контрафлексивного лингвистического нормирования двух вербальных языков и опосредующего его структурного нормирования.

«АВ»-моделирование это универсальный способ разноуровневого нормирования структуры как бывания, который в одном и том же конструкт-семиозисе может интерпретировать и фундаментальные отношения мира, и феноменологически-апперцептивную структуру восприятия-мышления, рече-текстового выражения и деятельности, использование языка и логики, а также взаимодействия с внешней эмпирической реальностью. Вот эта онтологическая особенность «АВ»-моделирования и является, с нашей точки зрения, ценной для создания искусственного интеллекта. «АВ»-моделирование - «язык» искусственного интеллекта.


Похожая информация.


Анализ проблемы искусственного интеллекта открывает роль таких философских познавательных орудий, как категории, специфическая семиотическая система, логические структуры, ранее накопленное знание. Всё это обнаруживаются не посредством исследования физиологических или психологических механизмов познавательного процесса, но выявляется в знании, в его языковом выражении. Орудия познания, формирующиеся, в конечном счёте на основе практической деятельности, необходимы для любой системы, выполняющей функции абстрактного мышления, независимо от её конкретного материального субстрата и структуры. Поэтому, чтобы создать систему, выполняющую функции абстрактного мышления (т. е. в конечном счёте, формирующую адекватные схемы внешних действий в существенно меняющихся средах) необходимо наделить такую систему этими орудиями. Развитие систем ИИ за последние время как раз идёт по этому пути.

Степень продвижения в данном направлении в отношении каждого из указанных познавательных орудий разная, но в целом пока, увы, незначительна.

В наибольшей мере системы ИИ используют формально-логические структуры, что обусловлено их неспецифичностью для мышления и, в сущности, алгоритмическим характером. Это дает возможность относительно легкой их технической реализации. Но даже здесь кибернетике предстоит пройти большой путь. В системах искусственного интеллекта ещё слабо используются модальная, императивная, вопросная и иные логики, которые функционируют в человеческом интеллекте, и не менее необходимы для успешных познавательных процессов, чем давно освоенные логикой, а затем и кибернетикой формы выводов. Повышение «интеллектуального» уровня технических систем, безусловно, связано не только с расширением применяемых логических средств, но и с более интенсивным их использованием - проверка информации на непротиворечивость, конструирования планов вычислений и т. п.

Сложнее обстоит дело с семиотическими системами, без которых интеллект невозможен в принципе. Языки, используемые в ЭВМ, ещё далеки от семиотических структур, которыми оперирует мышление. Прежде всего, для решения ряда задач, необходимо последовательное приближение семиотических систем, которыми наделяется ЭВМ, к естественному языку, точнее, к использованию его ограниченных фрагментов. В этом плане предпринимаются попытки наделить входные языки ЭВМ универсалиями языка, например, полисемией (которая элиминируется при обработке в лингвистическом процессоре). Уже разработаны проблемно-ориентированные фрагменты естественных языков, достаточные для решения системой ряда практических задач. Наиболее важным итогом такой работы является создание семантических языков (и их формализация), в которых слова-символы имеют определенную интерпретацию.

Многие универсалии естественных языков, необходимые для выполнения ими познавательных функций, в языках ИИ пока реализованы слабо (например, открытость) или используются ограниченно (например, полисемия). Все чаще воплощение в семиотических системах универсалий естественного языка, обусловленных его познавательной функцией, выступает одной из важнейших линий совершенствования систем ИИ, особенно тех, в которых проблемная область заранее чётко не определена.

Сегодня системы искусственного интеллекта способны осуществлять перевод с одномерных языков на многомерные. В частности, они могут строить диаграммы, схемы, чертежи, графы, чертить на экране кривые и т. п. ЭВМ производят и обратный перевод (описывают графики и тому подобное с помощью символов). Такого рода перевод является существенным элементом интеллектуальной деятельности. Правда современные системы ИИ пока не способны к непосредственному (без перевода на символический язык) использованию изображений или воспринимаемых сцен для «интеллектуальных» действий. Поиск путей глобального, а не локального, оперирования информацией составляет одну из важнейших и задач теории искусственного интеллекта.

Воплощение в информационные массивы и программы систем ИИ аналогов категорий находится пока в начальной стадии. Например, в категории входят понятия «целое», «часть», «общее», «единичное». Они используются в ряде систем представления знаний, в частности в качестве «базовых отношений», в той мере, в какой это необходимо для тех или иных конкретных предметных или проблемных областей, с которыми взаимодействуют системы. В формализованном понятийном аппарате некоторых систем представления знаний предприняты отдельные попытки выражения некоторых моментов содержания и других категорий (например, «причина» и «следствие»). Однако ряд категорий (например, «сущность» и «явление») в языках систем представления знаний отсутствует. В целом, данная проблема разработчиками систем ИИ в полной мере ещё не осмыслена, и предстоит ещё большая работа философов, логиков и кибернетиков по внедрению аналогов категорий в системы представления знаний, и другие компоненты интеллектуальных систем.

Современные системы ИИ почти не имитируют сложную иерархическую структуру образа, что не позволяет им перестраивать проблемные ситуации, комбинировать локальные части сетей знаний в блоки, перестраивать эти блоки и т. п. Не является совершенным и взаимодействие вновь поступающей информации с совокупным знанием, фиксированным в системах. В семантических сетях и фреймах, использующихся при представлении знаний, пока недостаточно используются методы, благодаря которым интеллект человека легко пополняется новой информацией, находит нужные данные, перестраивает свою систему знаний и т. п.

Ещё в меньшей мере современные системы ИИ способны активно воздействовать на внешнюю среду, без чего не может; осуществляться самообучение и вообще совершенствование «интеллектуальной» деятельности.

Таким образом, хотя определенные шаги к воплощению гносеологических характеристик мышления в современных системах искусственного интеллекта сделаны, но в целом эти системы ещё далеко не владеют комплексом гносеологических орудий, которыми располагает человек и которые необходимы для выполнения совокупности функций абстрактного мышления. Чем больше характеристики систем искусственного интеллекта будут приближены к гносеологическим характеристикам мышления человека, тем ближе будет их «интеллект» к интеллекту человека, точнее, тем выше будет их способность к комбинированию знаковых конструкций, воспринимаемых и интерпретируемых человеком в качестве решения задач и вообще воплощения мыслей.

Поэтому возникает сложный вопрос. При анализе познавательного процесса гносеология абстрагируется от психофизиологических механизмов, посредством которых реализуется сам процесс. Но из этого не следует, что для построения систем искусственного интеллекта эти механизмы не имеют значения. Не исключено, что механизмы, необходимые для воплощения неотъемлемых характеристик интеллектуальной системы, не могут быть реализованы в цифровых машинах или даже в любой технической системе, включающей в себя только компоненты неорганической природы. Также не исключено, что хотя мы и можем познать все гносеологические закономерности, обеспечивающие выполнение человеком его познавательной функции, но их совокупность реализуема лишь в системе, субстратно тождественной человеку.

Подобный взгляд обосновывается X. Дрейфусом. «Телесная организация человека - пишет он - позволяет ему выполнять... функции, для которых нет машинных программ - таковые не только ещё не созданы, но даже не существуют в проекте... Эти функции включаются в общую способность человека к приобретению телесных умений и навыков. Благодаря этой фундаментальной способности наделенный телом субъект может существовать в окружающем его мире, не пытаясь решить невыполнимую задачу формализации всего и вся».

Подчеркивание значения «телесной организации» для понимания особенностей психических процессов, в частности возможности восприятия, заслуживает отдельного внимания. Качественные различия в способности конкретных систем отражать мир тесно связаны с их структурой, которая хотя и обладает относительной самостоятельностью, но не может преодолеть некоторых рамок, заданных субстратом. В процессе биологической эволюции совершенствование свойства отражения происходило на основе усложнения нервной системы, т. е. субстрата отражения. Не исключено, что различие субстратов ЭВМ и человека может обусловить фундаментальные различия в их способности к отражению, что ряд функций человеческого интеллекта в принципе недоступен машинам.

В философской литературе утверждается, что допущение возможности выполнения технической системой интеллектуальных функций человека означает сведение высшего (биологического и социального) к низшему (к системам из неорганических компонентов) и, следовательно, противоречит материалистической диалектике. Но в этом рассуждении не учитывается, что пути усложнения материи однозначно не однозначны, и не исключено, что общество имеет возможность создать из неорганических компонентов (абстрактно говоря, минуя химическую форму движения) системы не менее сложные и не менее способные к отражению, чем биологические. Созданные таким образом системы являлись бы компонентами общества, социальной формой движения. Вопрос о возможности передачи интеллектуальных функций техническим системам, и в частности о возможности наделения их рассмотренными в работе гносеологическими орудиями, не может быть решен только исходя из философских соображений. Он должен быть подвергнут анализу на базе конкретных научных исследований. X. Дрейфус подчеркивает, что ЭВМ оперирует информацией, которая не имеет значения, смысла. Для ЭВМ необходим перебор огромного числа вариантов. Телесная организация человека, его организма позволяет отличать значимое от незначимого для жизнедеятельности и вести поиск только в сфере первого. Для «не телесной» ЭВМ, утверждает Дрейфус, это недоступно. Конечно, конкретный тип организации тела позволяет человеку ограничивать пространство возможного поиска. Это происходит уже на уровне анализаторной системы. Совсем иначе обстоит дело с ЭВМ. Когда в кибернетике ставится общая задача, например распознания образов, то эта задача переводится с чувственно-наглядного уровня на абстрактный. Тем самым снимаются ограничения, не осознаваемые человеком, но содержащиеся в его «теле», в структуре органов чувств и организма в целом. Они игнорируются ЭВМ. Поэтому пространство поиска резко увеличивается. Это значит, что к «интеллекту» ЭВМ предъявляются более высокие требования (поиска в более обширном пространстве), чем к интеллекту человека, к которому приток информации ограничен физиологической структурой его тела.

Обладающие психикой системы отличаются от ЭВМ прежде всего тем, что им присущи биологические потребности, обусловленные их материальным, биохимическим субстратом. Отражение внешнего мира происходит сквозь призму этих потребностей, в чём и выражается активность психической системы. ЭВМ не имеет потребностей, органически связанных с ее субстратом, для нее как таковая информация незначима, безразлична. Значимость, генетически заданная человеку, имеет два типа последствий. Первый - круг поиска сокращается, и, тем самым, облегчается решение задачи. Второй - нестираемые из памяти фундаментальные потребности организма обусловливают односторонность психической системы. Дрейфус пишет в связи с этим: «Если бы у нас на Земле очутился марсианин, ему, наверное, пришлось бы действовать в абсолютно незнакомой обстановке; задача сортировки релевантного и нерелевантного, существенного и несущественного, которая бы перед ним возникла, оказалась бы для него столь же неразрешимой, как и для цифровой машины, если, конечно, он не сумеет принять в расчет никаких человеческих устремлений». С этим можно не согласится. Если предложенный «марсианин» имеет иную биологию, чем человек, то он имеет и иной фундаментальный слой неотъемлемых потребностей, и принять ему «человеческие устремления» значительно труднее, чем ЭВМ, которая может быть запрограммирована на любую цель.

Живое существо в принципе не может быть по отношению к этому фундаментальному слою перепрограммировано, хотя для некоторых целей оно может быть запрограммировано вновь, посредством дрессировки. В этом смысле потенциальные интеллектуальные возможности машины шире подобных возможностей животных. У человека же над фундаментальным слоем биологических потребностей надстраиваются социальные потребности, и информация для него не только биологически, но и социально значима. Человек универсален и с точки зрения потребностей, и с точки зрения возможностей их удовлетворения. Однако эта универсальность особо присуща ему как социальному существу, производящему средства целесообразной деятельности, в том числе и системы искусственного интеллекта. Следовательно, телесная организация не только даёт дополнительные возможности, но и создает дополнительные трудности. Поэтому интеллекту человека важно иметь на вооружении системы, свободные от его собственных телесных или иных потребностей. Конечно, от таких систем неразумно требовать, чтобы они самостоятельно распознавали образы, классифицировали их по признакам, по которым это делает человек. Цели для них необходимо задавать в явной форме.

Следует отметить, что технические системы могут иметь аналог телесной организации. Развитая кибернетическая система обладает рецепторными и эффекторными придатками. Начало развитию таких систем положили интегральные промышленные роботы, в которых ЭВМ в основном выполняет функцию памяти. В роботах «третьего поколения» ЭВМ выполняет и «интеллектуальные» функции. Их взаимодействие с миром призвано совершенствовать их «интеллект». Такого рода роботы имеют «телесную организацию», конструкция их рецепторов и эффекторов содержит определенные ограничения, сокращающие пространство, в котором, образно говоря, могла бы совершать поиск цифровая машина. Тем не менее, совершенствование систем искусственного интеллекта на базе цифровых машин может иметь границы, из-за которых переход к решению интеллектуальных задач более высокого порядка, требующих учёта глобального характера переработки информации и ряда других гносеологических характеристик мышления, невозможен на дискретных машинах при сколь угодно совершенной программе. Техническая, а не только биологическая, эволюция отражающих систем оказывается связанной с изменением материального субстрата и конструкции этих систем. Такая эволюция, т. е. аппаратное усовершенствование систем искусственного интеллекта, например, через более интенсивное использование аналоговых компонентов, гибридных систем, голографии и ряда других идей, будет иметь место. При этом не исключается использование физических процессов, протекающих в мозгу, и таких, которые психика в качестве своих механизмов не использует. Наряду с этим ещё далеко не исчерпаны возможности совершенствования систем ИИ путём использования в функционировании цифровых машин гносеологических характеристик мышления, о которых речь шла выше.

В последнее время при анализе проблем, связанных с ИИ, часто применяют математический аппарат нечётких множеств, идея и реализация которого принадлежит американскому математику Л.Заде. Суть подхода состоит в отказе от принципа детерминизма. Пожалуй, наиболее поразительным свойством человеческого интеллекта является способность принимать правильные решения в обстановке неполной и нечёткой информации. Построение моделей, приближенных е рассуждениям человека, и использование их в компьютерных системах будущих поколений представляет сегодня одну из важнейших проблем науки. Смещение центра исследований нечётких систем в сторону практических приложений привело к выявлению целого ряда проблем, таких, как новые архитектуры компьютеров для нечётких вычислений, элементная база нечётких компьютеров и контроллеров, инструментальные средства разработки, инженерные методы расчёта и разработки нечётких систем управления и многое другое. Математическая теория нечётких множеств, предложенная Л.Заде около тридцати лет назад, позволяет описывать нечёткие понятия и знания, оперировать этими знаниями и делать нечёткие выводы. Основанные на этой теории методы построения компьютерных нечетких систем существенно расширяют области применения компьютеров. Нечёткое управление является одной из самых активных и результативных областей исследований применения теории нечётких множеств. Нечёткое управление оказывается особенно полезным, когда технологические процессы являются слишком сложными для анализа с помощью общепринятых количественных методов, или когда доступные источники информации интерпретируются неточно или неопределенно. Экспериментально показано, что нечёткое управление дает лучшие результаты, по сравнению с получаемыми, при общепринятых алгоритмах управления. Нечеткая логика, на которой основано нечеткое управление, ближе к человеческому мышлению и естественным языкам, чем традиционные логические системы.

компьютер периферийный искусственный интеллект

Похожие публикации