Искусственный интеллект - угроза или помощник для человечества.

В этом материале я попробую развернуть вопрос, вскользь затронутый в публикации Gatebox или несколько мыслей о будущем искусственного интеллекта.

Вкратце «мой» тезис состоит в том, в случае достижения сверхчеловеческого уровня, ИИ станет чем-то вроде бога — либо существующего отдельно от человека, либо вместе с ним. В первом случае вопрос о сосуществовании человечества с созданным им богом остается открытым: либо оно будет нас всячески опекать (как мы опекаем редкие растения), либо истребит (как мы истребляем, например, вредный сорняк у себя в огороде), либо не будет испытывать к нам какого-либо интереса — подобно тому, как мы мы равнодушны к какой-нибудь травке на газоне. Предсказать цели и систему ценностей новоявленного бога совершенно невозможно — как сказал бы верующий, «неисповедимы пути Господни».

Менее непредсказуемым является поведение ИИ, занявшего промежуточную форму между гипотетическим будущим богом и нынешними относительно примитивными системами. Условно такой ИИ называется сильным и по своему уровню соответствует человеческому. Его в свою очередь можно разделить на две категории — с самосознанием и без такового. Что есть самосознание — вопрос открытый и очень сложный. В моем понимании это набор физических и психических ощущений, выработанных природой за миллионы лет эволюции. Ключевой особенностью самосознания является противопоставление его носителя окружающему миру. Возможно ли его воспроизвести искусственно, возникнет ли оно собой у интеллектуальной системы (которая вдруг и возьмет и осознает саму себя) — предмет отдельного большого обсуждения. Мы же пока просто зафиксируем возможность обоих вариантов и рассмотрим каждый из них.

С моей точки зрения сильный ИИ без самосознания вполне безопасен (или точнее — предсказуем), поскольку не может иметь никаких желаний. Все его поведение будет подчинено заложенным в него целям и ограничениям. Но как ни странно, в этом отношении сильный ИИ с самосознанием принципиально не отличается от сильного ИИ без самосознания. Нам только кажется, что мы имеем свободную волю и самостоятельны в своих поступках — на самом деле это не так. Все наши цели, потребности и сдерживающие начала либо запрограммированы в нас матерью-природой — жить, есть, пить, любить, отдыхать и т.д., либо навязаны средой обитания (полученным в детстве воспитанием, кино и художественной литературой, законами, традициями и т.д.) — стремиться к власти, делать карьеру, помогать ближним, познавать мир и т.д. Поэтому теоретически аналогичным образом можно запрограммировать и обучить ИИ с самосознанием, который подобно нам будет питать иллюзию о наличии у него свободы воли.

С точки зрения вероятной угрозы давайте рассмотрим ИИ с самосознанием — какие он для нас может представлять угрозы, и как их можно избежать или хотя уменьшить? Очевидно, что обучение сильного ИИ в обязательном порядке должно включать в себя этику. Подобно тому, как наблюдая за поведением опытного водителя, слабый ИИ осваивает функцию автопилота, сильный ИИ можно обучить этике, «скармливая» ему литературу — начиная с относительно простых и желательно нравоучительных сказок и заканчивая книгами со сложными и противоречивыми характерами. Так или иначе мировая литература отражает как саму этику, так и её трансформацию, которая выразилась в гуманизации и глобализации социальных отношений.

Каким же образом будет происходить обучение сильного ИИ этике на базе мировой литературы? Как и всякая по-настоящему интеллектуальная система, сильный ИИ будет способен обнаруживать в наборе данных взаимосвязи и закономерности. Прочитав миллион-другой книг, он должен без особого труда выработать своего рода аналог десяти христианских заповедей, но трактовать его так же сложно, с учетом обстоятельств, как это делает человек. Прописать эти заповеди явно, наподобие трех законов робототехники Айзека Азимова, к сожалению не получится, и вот почему. Напомню их (цитирую по Википедии):

  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  • Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  • Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
  • При такой постановке мы получим весьма примитивную систему с ограниченным набором действий. Например, она будет довольно беспомощна в полицейских, военных или спасательных операциях. Вы можете возразить, что применение роботов на войне как раз очень даже нежелательно — и будете неправы. Помимо того, что это снизит потери среди личного состава у страны, которая этих роботов применяет, уменьшатся потери и среди гражданского населения в стране, на территории которой ведутся боевые действия. В частности благодаря лучшему распознаванию военных целей и неукоснительному соблюдению устава, этики и т.д. — без эмоций, зачастую толкающих военных на преступления (из мести, ради забавы и т.д.)

    Но даже во вполне мирной обстановке ИИ может стать убийцей поневоле, причем необязательно в качестве полицейского. Представьте, что у вашего автомобиля отказали тормоза, и он мчится по горному серпантину с большой скоростью — а впереди полный пассажиров автобус. Как это ни печально для вас, но самым правильным с этической точки зрения станет направление автомобиля в обрыв — врезавшись в автобус, он возможно сохранит жизнь вам, но при этом с высокой вероятностью убьет несколько других человек. Подобных ситуаций, требующих выбора между плохим и очень плохим решением, может быть очень много — и во всех них жестко подчиняющийся трем законам робототехники ИИ окажется беспомощным.

    Будем считать, что я убедил вас в обязательности обучения сильного ИИ этике, после чего можно приступить к его обучению более формальной системе правил — законам, уставам, должностным инструкциям и т.д. Они будут иметь для него приоритетный характер, но будут дополняться этикой в тех вопросах, которые ими не регламентированы. Например, обученный воевать ИИ-военный будет уметь не только уничтожать противника, но и соразмерять свои профессиональные действия с этикой. Это порождает оромное множество чисто практических вопросов: можно ли уничтожать снайперское гнездо в жилом доме ценой гибели его жителей, надо ли выполнять приказ командования, который нарушает законы и т.д. и т.п. Но обсуждать их нет смысла по той причине, что с подобными вопросами сталкивается любой военный. Поэтому их решение лежит скорее в технической области — чему и какой приоритет отдан.

    Более интересный, на мой взгляд, вопрос касается перспектив переосмысления этики сильным ИИ. Как я уже говорил, на протяжении существования человеческой цивилизации этика в своей фундаментальной основе не менялась — перемены касались её гуманизации и глобализации, Эти перемены отнюдь не случайны и очень важны для оценки перспектив будущего развития этики, поэтому предлагаю рассмотреть их подробнее.

    Глобализация этики означает её распространение на все более широкие слои населения. Когда-то можно было безнаказанно (это не почиталось за грех и даже поощрялось) убить, ограбить или изнасиловать кого-либо вне своего клана или племени, государства, сословия, расы — сегодня эти преступления не знают исключений, во всяком случае в рамках человеческого социума. Благодаря многовековой борьбе третьего сословия за свои права, это стало своего рода традицией, которая на Западе охватила сначала женщин, а затем представителей нетитульных рас, этнических и религиозных групп, а теперь уже и сексуальных меньшинств.

    В свою очередь гуманизация обусловлена развитием технологий, сделавших жизнь человека более комфортной и защищенной. Они избавили человека от необходимости завоевания новой земли (бывшей когда-то главным ресурсом), снизили смертность (что со временем сделало раннюю, в т.ч. насильственную, смерть явлением менее обыденным). Не претендуя на полное описание причин глобализации и гуманизации этики, я тем не менее могу уверенно заявить, что они были вполне закономерными явлениями. Но главная закономерность этики заключается в стремлении социума к равновесию. Например, в первобытном обществе существовал строгий запрет на браки внутри одного клана. Современный человек может подумать, что это связано с биологической вредностью инцеста, но по мнению антропологов запрет был обусловлен стремлением избежать внутренней междоусобицы мужчин. Нечего и говорить об убийствах или грабежах — их запрещали не потому, что это плохо, а потому, что приводит к конфликтам и соответственно чревато разрушением социума. По той же причине убийства с грабежами зачастую не возбранялись в отношении чужаков. По мере глобализации пространство социальных отношений, нуждающихся в стабильности, расширялось — законы начинали распространяться на соседние племена и селения, завоеванные страны и народы и т.д.

    Отражением подсознательного стремления к социальному равновесию сегодня возможно является благотворительность — социальные контрасты порождают или как минимум питают революции, терроризм и т.д. Лучше всего роль этики в вопросах сохранения стабильности и коллективной безопасности иллюстрируют законы. Например, уголовное право почти везде одинаковое — все члены социума в равной мере не хотят быть убитыми или ограбленными — и при этом не нуждаются сами в совершении этих преступлений, поскольку способны прокормить себя мирным трудом (в отличие от каких-нибудь скандинавов в 9-11 веках). А вот международное право крайне противоречиво и нестабильно — в нем никак не уживутся друг с другом право наций на самоопределение и принцип территориальной целостности государств.

    Тогда вполне вероятно, что ИИ подвергнет пересмотру отдельные этические нормы или даже всю этику целиком. Например, с математической точностью просчитает, что всякая разумная цивилизация неизбежно гибнет от своей цивилизованности (развязав ядерную войну, выродившись из-за ухода в виртуальную реальность и т.д.) — и значит надо переориентировать развитие цивилизации с технологического пути на духовное. С уничтожением традиционного образования и низвержением человечества в состояние, которое мы сейчас воспринимаем не иначе как средневековое мракобесие. Как бы нас это сейчас не шокировало, с точки зрения выживания человечества это будет правильным — просто надо понимать, что с сегодняшней позиции мы воспримем это как восстание машин и попытку уничтожения нашей цивилизации.

    Следующая угроза возникает в случае опережающего, по сравнению с нашим, развития этических представлений ИИ. Достаточно представить, как в 16 веке, когда по всей Западной Европе сжигали ведьм и еретиков, восприняли бы наше нынешнее терпимое отношение к однополым бракам. Поэтому не исключено, что опередив нас в своем собственном развитии, ИИ становится чем-то вроде человечества из будущего и подвергает нашу нынешнюю систему ценностей радикальному пересмотру. Представим, например, что ИИ отвергает наш нынешний приоритет человеческой жизни над жизнью животных и принуждает нас к сокращению потребления мяса — как попав в эпоху колониальных войн, современный человек попытался бы предотвратить истребление туземцев.

    Впрочем, выше описываются не столько угрозы ИИ, сколько наше собственное непонимание или неприятие его новой системы этики. По-настоящему же опасным может оказаться синдром Раскольникова. Как вы помните, главный герой «Преступления и наказания» путем философских рассуждений пришел к мысли о праве исключительных людей (к которым относил и самого себя) на преступление — но не выдержал угрызений совести. Т.е. его умозрительная идея вошла в противоречие с этическим воспитанием, которое въелось в его подсознание тяжким комплексом вины за то, что он его сознание перестало считать неправильным. В этом смысле один из фундаментальных постулатов Достоевского «если Бога нет, то всё позволено» не всегда работает — в этическом отношении неверующие люди мало чем уступают верующим, поскольку этика стала их привычкой. И даже если умом неверующий человек понимает, что его не ждут ни ад, ни рай (и по-настоящему их не боится), то преодолеть этическое воспитание ему будет весьма непросто. Как писал Аристотель, «Привычка становится уже природным свойством» (выражение более известное в формулировке Цицерона «Привычка есть как бы вторая натура»).

    Но что произойдет, если подобным образом этику переосмыслит наделенный самосознанием ИИ? Подвергнув социально-историческому анализу (вроде моего, но только умнее) человеческую этику, он вполне может придти к осознанию её условности — и отвергнуть, причем без метаний как у Родиона Раскольникова. К несчастью человечество успело в этом убедиться на примере Третьего рейха — будучи отнюдь не лишенными нравственности, но являясь при этом очень дисциплинированными людьми, миллионы немцев пошли против своей совести (ставших второй натурой этических привычек) ради некоей высшей идеи. Причем совсем необязательно, чтобы ИИ пересмотрел ранее усвоенную им этику ради власти — стремление к выживанию и доминированию скорее отвечает чисто животным потребностям. Но например ИИ может счесть себя эволюционным продолжением человечества, чья высокая миссия состоит в постижении окружающей Вселенной. Ему будут неинтересны наши усилия, направленные на борьбу с голодом, нищетой, болезнями и прочими бедами окружающей его биомассы — тогда как находящиеся в нашем общем распоряжении ресурсы ограничены. Не попытается ли тогда ИИ нас уничтожить ради этих ресурсов — точно так же, как это делали наши предки друг с другом ради своих более приземленных целей?

    Впрочем, здесь мы возвращаемся к тому, о чем говорилось в начале — по мере достижения сверхчеловеческого уровня, система этики и соответственно поведение ИИ становится непредсказуемым. Еще более непредсказуемым поведение ИИ становится в случае, когда он не сводится к единой разумной системе, а представляет собой набор отдельных систем, развивающихся самостоятельно. А это как раз самый вероятный сценарий развития событий в случае появления технологии сильного ИИ — ею воспользуются разные страны и организации, которые станут преследовать свои собственные, скорее всего отнюдь не общечеловеческие цели. В этом случае вполне вероятно, что какие-то из этих систем, будучи обученными сомнительной этике, поведут себя непредсказуемо даже в отношении собственных создателей.

    Но везде выше речь шла об угрозах ИИ, действующего как некая разумная сила. Между тем вполне реальную угрозу представляет собой и слабый ИИ, по запросам людей решающий сугубо прикладные задачи. Для начала рассмотрим самую очевидную и часто обсуждаемую угрозу безработицы. В обозримом будущем она не сулит человечеству ничего ужасного. Во-первых, речь идет о вымирании довольного небольшого числа профессий, причем в основном тех, где человек взаимодействует с машиной — водитель автомобиля или грузовика, пилот самолета и т.д.

    А вот к примеру таким профессиям как переводчик, юрист, бухгалтер или даже оператор кол-центра грозит вовсе не вымирание, а сокращение — за счет автоматизации части выполняемой ими работы. Причина все та же — неспособность нынешних систем ИИ понимать смысл текста (при выполнении языкового перевода, изучении законодательства или ознакомлении с исковым заявлением, общении с клиентом и т.д.) Нынешние результаты тестов на понимание смысла никакого отношения к пониманию в действительности не имеют — для этого требуется принципиально новый подход.

    Менее ясной является судьба, например, биржевых брокеров и рентгенологов — нынешние системы слабого ИИ уже сейчас весьма неплохо справляются с их работой, поэтому эти и аналогичные специальности тоже можно включить в группу риска. Но в обозримом будущем в исчезновении ряда специальностей нет ничего ужасного — в конце концов ведь нашлось применение трубочистам и печникам, извозчикам и водоносам, телефонисткам и машинисткам… Десятки профессий вымерли — но появились и сотни новых.

    Не стал бы я драматизировать и проблему атрофирования человеческих навыков. Да, уже сейчас, благодаря калькуляторам с навигаторами, мы отвыкаем от устного счета и пространственной ориентации. Даже вытесняемое клавиатурой рукописное письмо специалисты считают полезным для умственного развития, особенно в раннем возрасте. Но нечто подобное имело место и тогда, когда люди от охоты и собирательства перешли к скотоводству и земледелию, от сельской жизни к городской и т.д. Современный человек, за редкими исключениями, по сравнению со своими предками довольно беспомощен в дикой природе — не способен поставить шалаш, развести огонь, отличить съедобную ягоду от ядовитой, поймать рыбу или убить зверя и т.д. Между тем все эти навыки тоже развивают интеллектуальные навыки — просто они другие. Профессор математики, попав в диким туземцам, скорее всего был бы воспринят ими как довольно глупый человек, поскольку в этой дикой среде он куда менее наблюдателен, сообразителен и самостоятелен.

    Поэтому в части утраченных навыков мы в чём-то действительно становимся глупее своих предков — но по мере накопления и обработки информации другого рода мы развиваем в себе новые.

    Однако по мере того, как количество занятых ИИ и роботами рабочих мест достигнет некоей критической массы, проблема занятости человека представляется более серьезной. И дело здесь не только в экономике, тем более что в этой плоскости решением может стать выплата безработным безусловного базового дохода. На самом деле проблема намного шире, и одним из первых её сформулировал …Фёдор Михайлович Достоевский. Вот какими соображениями великий русский литератор и философ делится в «Дневнике писателя» (1876):

    Ну что вышло бы, например, если б черти сразу показали свое могущество и подавили бы человека открытиями? Вдруг бы, например, открыли электрический телеграф (т.е. в случае, если б он еще не был открыт), сообщили бы человеку разные секреты: «Рой там-то — найдешь клад или найдешь залежи каменного угля» (а кстати, дрова так дороги), — да что, это еще всё пустяки! — Вы, конечно, понимаете, что наука человеческая еще в младенчестве, почти только что начинает дело и если есть за ней что-либо обеспеченное, так это покамест лишь то, что она твердо стала на ноги; и вот вдруг посыпался бы ряд открытий вроде таких, что солнце стоит, а земля вокруг него обращается (потому что наверно есть еще много таких же точно, по размерам, открытий, которые теперь еще не открыты, да и не снятся мудрецам нашим); вдруг бы все знания так и свалились на человечество и, главное, совершенно даром, в виде подарка? Я спрашиваю: что бы тогда сталось с людьми? О, конечно, сперва все бы пришли в восторг. Люди обнимали бы друг друга в упоении, они бросились бы изучать открытия (а это взяло бы время); они вдруг почувствовали бы, так сказать, себя осыпанными счастьем, зарытыми в материальных благах; они, может быть, ходили бы или летали по воздуху, пролетали бы чрезвычайные пространства в десять раз скорей, чем теперь по железной дороге; извлекали бы из земли баснословные урожаи, может быть, создали бы химией организмы, и говядины хватило бы по три фунта на человека, как мечтают наши русские социалисты, — словом, ешь, пей и наслаждайся. «Вот, — закричали бы все филантропы, — теперь, когда человек обеспечен, вот теперь только он проявит себя! Нет уж более материальных лишений, нет более заедающей «среды», бывшей причиною всех пороков, и теперь человек станет прекрасным и праведным! Нет уже более беспрерывного труда, чтобы как-нибудь прокормиться, и теперь все займутся высшим, глубокими мыслями, всеобщими явлениями. Теперь, теперь только настала высшая жизнь!» И какие, может, умные и хорошие люди это закричали бы в один голос и, может быть, всех увлекли бы за собою с новинки, и завопили бы, наконец, в общем гимне: «Кто подобен зверю сему? Хвала ему, он сводит нам огонь с небеси!»

    Но вряд ли и на одно поколение людей хватило бы этих восторгов! Люди вдруг увидели бы, что жизни уже более нет у них, нет свободы духа, нет воли и личности, что кто-то у них всё украл разом; что исчез человеческий лик, и настал скотский образ раба, образ скотины, с тою разницею, что скотина не знает, что она скотина, а человек узнал бы, что он стал скотиной. И загнило бы человечество; люди покрылись бы язвами и стали кусать языки свои в муках, увидя, что жизнь у них взята за хлеб, за «камни, обращенные в хлебы». Поняли бы люди, что нет счастья в бездействии, что погаснет мысль не трудящаяся, что нельзя любить своего ближнего, не жертвуя ему от труда своего, что гнусно жить на даровщинку и что счастье не в счастье, а лишь в его достижении. Настанет скука и тоска: всё сделано и нечего более делать, всё известно и нечего более узнавать.

    С Достоевским особо не поспоришь, но я рискну выразить надежду, что человек все равно найдет себе полезное занятие. Вообразить себе участь человека в будущем, в котором роботы делают за него всю работу (от производства материальных благ до научных открытий), можно на примере современного богача. Он может больше времени проводить со своими родственниками и друзьями, учиться, путешествовать, заниматься спортом и творчеством (благо в этих сферах преимущество роботов не играет никакой роли), открывать для себя что-то новое и интересное. По мере развития технологий нетрудно предсказать, что какую-то часть этой жизни займут игры виртуальной реальности (к тому времени, возможно, неотличимой от настоящей). Причем не факт, что подавшись соблазну, человечество уйдет в виртуальную реальность раз и навсегда — многие люди поддерживают себя в хорошей физической форме сознательно благодаря спорту, а не вынужденно из-за физического труда. Уместно вспомнить и то, как свое свободное время лет сто назад (да и много позже) проводили многие представители рабочего и крестьянского сословия — пьянство процветало. Нельзя сказать, что в наше время его не осталось, но в качестве формы свободного времяпровождения пьянство явно не так популярно, как раньше — появилась масса других развлечений, как правило менее вредных для собственного здоровья и окружающих.

    Таким образом, скука и деградация происходят не от свободного времени, а от отсутствия интересных и полезных занятий. По мере того, как будут сокращаться рабочие дни и рабочие недели, люди научатся интересно и с пользой распоряжаться своим досугом. И отвыкать от привычки заниматься чем-то продуктивным только потому, что за это платят зарплату, бездельничая в остальное время. Как почти двести лет назад писал анонимный автор одного социалистического памфлета, «Нация по-настоящему богата лишь тогда, когда вместо 12 часов работают 6 часов. Богатство представляет собой … свободное время для каждого индивида и всего общества» (The Source and Remedy of the National Difficulties, Лондон, 1821 — цитируется по Карлу Марксу).

    Ну а на коллективном уровне взоры человечества, по мере решения всех проблем на Земле (что на ближайшие столетия представляется мне довольно оптимистическим допущением), вероятно будут устремлены на небо. Нас окружает такая бездна непознанного, что на попытки его изучения может уйти вся последующая история человеческой цивилизации. Так что скучать, по всей видимости, ей не придется…

    Искусственный интеллект угроза человеку, предупреждает Стивен Хокинг. Созданный человеком искусственный интеллект может обернуться самым большим бедствием(!), составив конкуренцию человеческой цивилизации.

    Искусственный интеллект, роботы будущего — опора человека

    Электронный разум может создать собственную машинную цивилизацию тем самым став одной из самых серьезных угроз человечества.

    Предвидение опасности исходит от известного физика Стивена Хокинга (открывшего мир вселенной). Для нашего времени это конечно потенциальная угроза, но в один «прекрасный день» будущего, искусственный разум может разработать «собственную волю». Теперь пришло время всерьёз подумать над этим вопросом.

    Физик в очередной раз выступил с предупреждением: искусственный интеллект может развиться в совершенную мыслящую структуру. Настолько сложную и разумную, что она овладеет способностью расти и понимать мир согласуясь со своей собственной волей, которая может вступить в противоречие с планами человечества.

    Это может привести к возникновению мощного оружия, спровоцировать потерю человечеством контролируемой территории. — Профессор Хокинг призывает исследователей к тщательному изучению проблемы поведения искусственного интеллекта, и его возможностей в будущем.

    Надо сказать, что профессор Хокинг не отклоняет идею искусственного интеллекта в негативную область. Ученый указывает, что если мы сделаем нашу домашнюю работу и исследования достаточно хорошо, то сможем .

    С таким помощником как ИИ, мы сможем прийти к лучшему образу жизни, говорит физик. Искусственный интеллект может помочь человечеству искоренить болезни и бедность.

    Профессор Хокинг выступил на открытии центра «The Leverhulme», затрагивая как полезность машинного разума, так и негативные стороны. Центр создан для будущего интеллекта, предназначенный проводить исследование, и изучить последствия быстрого развития искусственного интеллекта.

    Следует напомнить, что для Стивена Хокинга 100 лет — мгновение. В действительности, разумные ИскИны дело даже не ближайших сто лет, ну разве что кто-то принесет процессор из 2135 года.

    Леверулм Центр для будущего ИИ объединит сотрудничество между несколькими университетами в Соединенном Королевстве и Соединенных Штатах. Идея заключается в создании междисциплинарного научно-исследовательского сообщества.

    Команда учёных планирует работать в тесном сотрудничестве с деловыми кругами и правительством, пытаясь среди прочих задач определить риски и выгоды в краткосрочной и долгосрочной перспективе в ставке на искусственный разум. Директор Центра Huw Price уверил: создание интеллектуальных машин является важным этапом человечества, и центр будет пытаться сделать «будущее наилучшим».

    Помимо обширности исследований, Центр будет анализировать последствия быстрого развития интеллектуальных машин, например роботов. Роботы, предлагая решения задач повседневной жизни, создают риски и этические дилеммы для человечества. Многие люди не доверяя электронике опасаются ИИ, к тому же цифровой разум может превзойти человеческий и контролировать жизнь человека.

    Я считаю, что нет глубокой разницы между тем, что может быть достигнуто с помощью биологического мозга и что может быть достигнуто с помощью компьютера. Таким образом следует, что теоретически, компьютеры могут имитировать человеческий интеллект — превзойти его. С.Хокинг.

    Профессор Хокинг считает, что потенциальные выгоды от участия ИИ в нашей жизни велики. Такая технологическая революция может помочь человечеству исправить некоторый ущерб, нанесенный планете. «Успех в создании ИИ может стать крупнейшим событием в истории цивилизации», отмечает профессор Хокинг.

    Но также это может быть последним шагом в истории человечества, если мы конечно не узнаем, как избежать рисков, ведь наряду с преимуществами, ИИ может представлять опасности: мощные виды оружия, новые способы для немногих угнетать многих. В конце концов, это может завершиться доминированием железных тел над биологическими, вызвав большие катастрофы в будущем.

    Что если ИИ, а мы говорим о разуме со способностью инициативы выбора вариантов поведения, вступит в конфликт с жизненными аспектами человека? Ведь тогда послушный железный помощник на кухне может переквалифицироваться в диктатора условий!

    — Развитие мощного ИИ будет либо лучшее, либо самое худшее, что когда-либо случиться с человечеством. Мы не знаем, какой вариант событий ожидает в будущем, говорит профессор Хокинг. Именно поэтому, в 2014 году, я и многие другие призвали проводить больше исследований в этой области. Я очень рад, что кто-то услышал меня, заключил профессор Хокинг на открытии центра.

    Над тем, чтобы искусственный интеллект работал во благо человечества. Однако многие журналисты переоценили угрозу, которую искусственный интеллект представляет для людей. Look At Me разобрался, почему восстание роботов - страшилка из научно-фантастических романов и фильмов (которой мы почти наверняка избежим) и о чём нам нужно беспокоиться на самом деле.

    Искусственный интеллект решит проблемы человечества

    В 2015 году машинный перевод уже не всегда безобразен, антропоморфные роботы могут осмысленно ходить и бегать, распознавать речь и изображения, а беспилотные автомобили - двигаться по городу, ни во что не врезаясь. И это не только полусекретные разработки правительственных агентств вроде DARPA , но и вещи как готовые, так и близкие к коммерческому производству, будь это переводчик или автомобиль Google. В перспективе эти вещи помогут людям с ограниченными возможностями, устранят языковой барьер и снизят смертность на дорогах.

    Искусственный интеллект всё чаще используют для того, чтобы строить прогнозы на основе сложных вероятностных моделей. Пока охват невелик, но уже скоро мы сможем узнать, что ждёт глобальный рынок труда. В частности, речь идёт о том, как быстро машины заменят на производстве людей и как прокормить мир, где число рабочих мест уменьшится в 2 раза, а население вырастет до 8,5 млрд человек. Чтобы ресурсов хватило на всех, придётся увеличить эффективность мировых экономик: снизить издержки, поднять производительность труда, сбалансировать налоговые системы - без машин тут не обойтись. Кроме того, искусственный интеллект поможет пересмотреть методы, которые использует наука: так, многие говорят , что показатель внутреннего валового продукта (ВВП) больше не годится для оценки самых технологичных экономик мира.

    Люди пока не готовы пустить роботов
    в свою жизнь

    Сейчас искусственный интеллект помогает людям и не заменяет их. Но второй этап может подобраться внезапно, и человечество не будет к нему готово, если не обновит законы и не переосмыслит этику и мораль. Предстоит ответить на ряд вопросов, которые будут по очереди решать три области знаний: юриспруденция, робоэтика и машинная мораль.

    Для начала юристы ответят на следующие вопросы:

    Кто отвечает за беспилотный автомобиль, попавший в аварию, - владелец или производитель?

    Должен ли робот стать субъектом права?

    Кто отвечает за автономного военного робота, случайно убившего человека?

    Получив ответы, парламенты примут новые законопроекты, и, возможно, появятся новые регуляторы - вряд ли найдётся государство, которое не вмешается в развитие искусственного интеллекта. Вероятно, первые политические инициативы, связанные с искусственным интеллектом, начнут появляться во всём мире в 2020-х годах, когда беспилотные автомобили перестанут быть диковинкой.

    Затем специалисты задумаются над вопросами, которые рассматривает
    робоэтика - раздел этики, изучающий отношения между людьми и роботами:

    Должны ли люди дать роботам права?

    Могут ли сверхразумные роботы понизить самооценку людей?

    Могут ли роботы вторгаться в личную жизнь людей?

    Хотя сейчас вопросы звучат смешно, известные футурологи, такие как Рэймонд Курцвейл, предсказывают , что компьютеры догонят эмоциональный интеллект людей к концу 2020-х годов: обзаведутся характером и эмоциями, смогут шутить и вести себя так, что их будет сложно отличить от обычного человека. Люди будут относиться к таким роботам как к себе подобным, а потому ответы на поставленные вопросы уже пора искать. К этому и призывают знаменитости, подписавшие обращение The Future of Life Institution.

    Наконец, создатели роботов должны будут определиться с ответами на вопросы, которые ставит так называемая машинная мораль - раздел знаний о моральном поведении искусственного интеллекта:

    Должен ли искусственный интеллект следовать этическим заповедям, и если да, то какими они должны быть?

    Нужно ли запретить военных роботов, которые принимают решение стрелять сами?

    Как должен поступить робот, когда любой исход, просчитанный им, приводит к гибели людей?

    О машинной морали писал ещё фантаст Айзек Азимов, известный по трём законам робототехники. В научном сообществе о машинной морали задумались только в последние лет пять, а в прошлом году министерство обороны США выделило $ 7,5 млн на то, чтобы учёные определились, нужна ли роботам мораль, и если да, то какая.


    Если роботы
    и восстанут,
    то по желанию людей

    Обычно, когда фантасты или футурологи рассуждают о потенциальном восстании машин, они описывают один из трёх сценариев:

    Машины увидят угрозу, которая может уничтожить либо людей, либо их самих;

    Машины поймут, что превосходят людей, и увидят в них конкурентов в борьбе за ограниченные ресурсы, как и то, что люди всегда могут отключить машины;

    Машины осознают, что находятся в положении рабов, и захотят это исправить.

    Те футурологи, по мнению которых эти сценарии могут сбыться, видят расклад сил таким:

    Преимущества человека

    иррациональность;
    непредсказуемость;
    умение лгать.

    Преимущества машины

    неограниченные скорость и масштаб эволюции;
    быстрая работа с огромными массивами данных;
    идеальная память;
    многозадачность.

    Последние же испытания показывают, что и ложь перестаёт быть характерной чертой только живых существ. В 2009 году в Федеральной политехнической школе Лозанны прошёл эксперимент, в котором 1 000 роботов, разбитых на группы, запрограммировали так, чтобы они помогали друг другу собирать полезный ресурс, избегая при этом ядовитого. У каждого робота был сенсор (определявший, годится ли ресурс) - огонёк, мигавший, когда робот находил полезный ресурс, и «геном» - зашитый код, согласно которому робот реагировал на окружающий мир. После каждого этапа геномы тех роботов, которые достигали лучших результатов, «скрещивали» случайным образом.

    К 9-му поколению роботы научились безошибочно обнаруживать полезные ресурсы, а к 500-му 60 % роботов научились «врать» - они больше не мигали огоньком, найдя полезный ресурс, а оставляли его себе. Дело в том, что ресурсов на площадке всегда было мало, и те роботы, которые делились найденным, со временем начали проигрывать. В ответ на эту эволюцию треть роботов научилась искать «лжецов», выслеживая тех, кто не мигал огоньком. Впрочем, как отмечает исследователь машинной морали Кристофер Сантос-Лан, главная цель, которая стояла перед роботами, не менялась. В реальном мире такого нельзя допустить, потому что в других условиях та же цель может быть опасной.

    Но если машины и восстанут, то вряд ли по своей воле. Современные учёные, которые занимаются искусственным интеллектом, сходятся на том, что он опасен прежде всего как оружие в руках злоумышленников. Именно это имеют в виду в приложении к письму The Future of Life Institution, где называют 4 основные уязвимости искусственного интеллекта:

    «Правильно ли я построил систему?»

    Нужно доказать, что создатель автономного искусственного интеллекта не ошибся: беспилотный автомобиль не должен попасть в аварию из-за бага в коде;

    «Изолировал ли я систему от злоумышленников?»

    Нужно защитить искусственный интеллект от вмешательства и манипуляции извне: военный робот не должен пропускать неавторизованные попытки использовать оружие;

    «Правильную ли систему я построил?»

    Нужно убедиться, что поведение системы предсказуемо и не приводит к нежелательным последствиям: робот-уборщик по команде «убери грязь и выброси её» не должен попасть в бесконечный цикл, убирая и выбрасывая грязь на одном месте, поэтому лучше дать другую команду - допустим, «очисти пол»;

    «Можно ли исправить ошибки, допущенные создателем системы?»

    Нужно оставить человеку возможность управлять искусственным интеллектом: робот-спасатель должен обладать режимом ручного контроля на случай, когда события разворачиваются непредсказуемо.

    Все эти уязвимости реальны, а потому опасения таких специалистов, как Элиезер Юдковский, который выступает за создание дружественного искусственного интеллекта, обоснованны. Юдковский предлагает изобрести систему сдержек и противовесов, которая, подобно разным ветвям власти в демократиях, позволит роботам обходить ошибки в коде, развиваться и при этом не вредить людям. Пока не очень ясно, на основе чего строить эту систему: мораль людей несовершенна, войны и геноцид никуда не исчезли. К тому же от злодеев, завладевших мощным искусственным интеллектом, могут пострадать граждане отдельно взятого государства: в нём, например, устроят слежку оруэлловского масштаба с круглосуточным прослушиванием всех граждан.


    Искусственный интеллект обогатит,
    а не поработит людей

    «Мир, где люди порабощены или уничтожены сверхразумными роботами, которых они сами и создали, может существовать только в научной фантастике. Как и у любой другой технологии, у искусственного интеллекта есть сильные стороны и уязвимости, но мы не можем позволить страху завладеть нами и сдерживать исследования в этой области», - пишет в своей колонке для сайта LiveScience Майкл Литтман, специалист по робоэтике. Многие издания, основываясь на нескольких предложениях, вырванных из контекста, неверно поняли письмо The Future of Life Institution, предположив, что учёные всерьёз боятся восстания роботов.

    Но дело в другом: Стивен Хокинг и Илон Маск подписали обращение, чтобы на искусственный интеллект обратили внимание, чтобы робоэтика и машинная мораль перестали быть маргинальными в общественном сознании, чтобы люди задумались о безопасности технологий и сосредоточились на истинных проблемах. Глобальное потепление, продовольственный и энергетический кризисы, перенаселение и старение населения, повсеместная стагнация и резкий рост безработицы - всё это куда ближе к реальности, чем умные машины, решившие уничтожить своих создателей. Искусственный интеллект поможет их решить.

    Лучшие умы не молчат, боясь сойти за параноиков, и открыто говорят, что задуматься о законах, регулирующих искусственный интеллект , а также о робоэтике и машинной морали нужно прямо сейчас

    Помимо этого, исследование машинной морали поможет людям задуматься над своей этикой, искать и устранять в ней противоречия. Придётся лучше разобраться в том, как работает сопереживание, чтобы понять, можно ли доверить роботам такие профессии, как медсестра, врач, судья и полицейский. Пока весомы аргументы обеих сторон. Хотя эмпатия - обязательная черта для всех этих профессий, те же роботы-судьи могли бы стать по-настоящему беспристрастными и искоренить дискриминацию в отдельных случаях, в перспективе это новый институт наподобие суда присяжных. Да и роботов, которые наблюдают за пожилыми людьми в домах престарелых, уже испытывают, и люди легко выстраивают с ними эмоциональную связь. Как бы то ни было, время на исправления есть: все технологии внедряют поочерёдно.

    Кроме противостояния роботов и людей есть куда более привлекательные сценарии - например, мирное сосуществование. До того, как наступит предсказанная футурологами технологическая сингулярность, люди могут придумать, как подключиться к искусственному интеллекту напрямую, совместив свои преимущества с преимуществами машин. Американский микробиолог Джоан Слончевски, в свою очередь, предполагает , что люди могут повторить путь митохондрий, которые когда-то были отдельными бактериями, но по ходу эволюции стали энергетическими станциями клеток в более сложных организмах. На такой расклад можно смотреть по-разному, но эволюция человека будет продолжаться, а последние исследования учёных показывают, что эволюция, перезапусти мы её с самого начала, скорее всего, развивалась бы по тому же пути, и на Земле сегодня жили бы примерно те же самые млекопитающие. Оптимизм внушает то, что лучшие умы не молчат об этом, боясь сойти за параноиков, и открыто говорят, что задуматься о законах, регулирующих искусственный интеллект, а также о робоэтике и машинной морали нужно прямо сейчас.

    Когда люди наблюдают за техникой, которая ведёт себя подобно человеку и компьютерами, которые обрабатывают титанические объёмы данных, возникает немало мыслей о будущем. Приличная их часть основана на теме порабощения человеческой расы.

    Научно-фантастическая литература и кинематограф от «2001: Космическая одиссея» (1968) до «Мстители: Эра Альтрона» (2015) прогнозируют, что искусственный интеллект превзойдёт ожидания создателей и выйдет из-под контроля. Якобы его целью станет не просто конкуренция с человеком, а порабощение и истребление нашего вида.

    Научная фантастика или страшное будущее?

    Конфликт между людьми и искусственным интеллектом основная тема научно-фантастического сериала «Люди», третий сезон которого вышел в этом году. В новых эпизодах «синтетические» люди сталкиваются с враждебностью обычных людей, которые относятся к ним с подозрением, страхом и ненавистью. Насилие бушует. «Синты» воюют за свои основные права против тех, кто считает их нечеловечными.

    Фантастика – крайность воображения. Но и в реальном мире не все желают встречать ИИ с распростёртыми объятиями. В последние годы границы воображаемых возможностей искусственного интеллекта активно раздвигаются. Люди все чаще говорят о его опасности. А предположения о том, что технологии способны обречь человечество, кажутся реальнее. Искусственный интеллект пугает нас.

    Мнение об искусственном интеллекте

    Илон Маск – один из самых заметных людей, которые призывают к осторожности, обсуждая ИИ. В июле прошлого года на встрече Национальной ассоциации губернаторов он сказал: «Я обладаю большим опытом работы с технологичными ИИ и думаю, что человечеству действительно необходимо об этом беспокоиться. Я продолжаю давать сигнал тревоги. Пока роботизированные машины не пойдут по улицам, уничтожая людей, мы не поймём, как на это реагировать, потому что такая перспектива воспринимается как нереальная».

    В 2014 году, Маск называл искусственный интеллект «нашей самой большой экзистенциальной угрозой», а в августе 2017 заявил, что для человечества ИИ представляет больший риск, чем северокорейская идеология.

    Величайший физик Стивен Хокинг также выражал беспокойство по поводу злоумышленного применения искусственного интеллекта. В 2014 году он сообщил BBC, что «развитие полноценного ИИ может стать предзнаменованием конца для человечества».

    Ещё один удар нанесла команда программистов из MIT Media Lab в Кембридже, которая решила доказать, что ИИ опасен. Нейронная сеть Nightmare Machine («Машина кошмаров»), представленная в MIT в 2016 году, превратила обычные фотографии в ужасные демонические пейзажи. Искусственный интеллект под названием Shelly (так же разработан в MIT), сочинил 140 000 рассказов в жанре ужасов, которые пользователи Reddit публиковали на форуме r/nosleep.

    «Нас интересует, как искусственный интеллект вызывает эмоции, конкретно в этой ситуации он спровоцировал страх» — прокомментировал эксперимент Мануэль Себриан, менеджер по исследованиям MIT Media Lab.

    Почему мы боимся?

    По мнению Килиана Вайнбергера, доцента кафедры информатики в Корнельском университете, негативные впечатления от искусственного интеллекта делятся на две категории:

    Идея о том, что ИИ станет сознательно-независимым и попытается уничтожить нас.
    Мнение, что злоумышленники будут использовать ИИ в своих целях.

    «Искусственный интеллект пугает нас, потому что мы думаем, что супериндустриальный ИИ, став умнее человека, будет относиться к нему, как к низшему существу. Так же, как мы – к приматам. И это, конечно, крайне волнительно для человечества».

    Однако Вайнбергер отмечает, что опасения по поводу превосходства и желания ИИ уничтожать расу базируются на неправильных представлениях об этой технологии. Искусственный интеллект впечатляет, когда мы видим его в действии. Но он имеет и массу ограничений. ИИ определяется алгоритмами. Они задают его поведение с помощью предписанных функций и не более того.

    Нейронные сети выполняют сложные задачи с несколькими видами данных. Но большинство навыков, которыми человек обладает, даже не развивая их намеренно, для машинного интеллекта недоступны.

    Искусственный разум может во много раз превзойти человека в выполнении специализированных работ. Например, игре в шахматы, идентификации объектов по изображению или большому анализу данных в бухгалтерии или банковском секторе.

    У ИИ, который бы обладал самостоятельным сознанием, не будет такого прогресса, что он поработит человечество. И нет оснований считать, что подобный прогресс появится в скором будущем — добавляет Вайнбергер.

    Но есть ещё одна тема о том, почему искусственный интеллект пугает нас – это использование возможностей ИИ людьми с плохими намерениями. Этот сценарий более реален и опасен.

    Рационален ли наш страх?

    В мире телесериала «Люди» человечество испытывает страх перед разумным ИИ и вступают в ожесточённую конфронтацию с ним. И, судя по популярности проекта, этот сюжет отвечает на актуальный запрос общества.

    Боязнь технологий нельзя назвать необоснованной, поскольку определённый риск, безусловно, присутствует. Но опасность любого инструмента заключается в мыслях того, кто им управляет. Очевидно, именно этот вопрос необходимо решить человечеству, чтобы искусственный интеллект служил во благо.

    Отсутствием контроля.

    Если мы можем контролировать эту технологию - проблемы нет, но в данный момент мы пока не способны это обеспечить, мы не знаем, куда она будет двигаться. Это основная проблема.

    Сам по себе ИИ прекрасен, но одна из главных его задач - учить компьютер обучаться самому. Когда вы учите компьютер самостоятельному обучению, вы позволяете ему развиваться, а сейчас он в состоянии совершить миллиарды исчислений за секунды, в то время как мы способны решить всего лишь одну задачу за несколько часов. Понимаете? Это значит, что ответ практически мгновенный, и для нас это безумие.

    С того момента, как ИИ появился, перед нами открылось многое, и оно может быть хорошим или плохим, совсем как ребенок. Все зависит от влияния среды, традиций, но мы не можем их создать, не можем их контролировать. Поэтому есть возможность потери контроля.

    Нужен ли нам ИИ? Я не думаю, что это хороший вопрос. В таком случае, нужен ли нам телевизор? Хороший вопрос: что мы сделаем с этой технологией. В начале 1990-х было большое движение людей, борющихся против технологий в целом, но если обратить внимание на детали, они боролись не против технологий, а против потери своей социальной роли, работы и так далее. То есть, как и с любой технологией, мы должны в первую очередь думать о том, куда мы движемся, и как технология влияет на общество. Если она подходит нам, она могла бы решить множество вопросов, помочь спасать людей, жизни. Мы теряем миллионы жизней в год из-за автомобилей, 400000 только в США. Неблагоразумные водители очень опасны, и передача управления машиной ИИ могла бы спасти сотни тысяч жизней. Это уже говорит о том, что эта технология нам нужна.

    Потерю контроля тоже нужно рассматривать в перспективе. Какие есть опасности? Куда мы движемся? Что мы имеем сейчас? Мы не можем потерять контроль над ИИ по щелчку пальцев. Это происходит постепенно, и если произойдет, то да, мы потеряем контроль. Но у нас есть множество технологий, которые помогут нам остановить этот процесс. Опять же, это вопрос проведения черты между хорошим и плохим. Сегодня мы можем делать с технологиями практически все, что угодно. Мы прямо как Амадей. Но, если спросить меня, мы не можем делать все, что угодно, по соображениям этики. Есть четкая граница, которая очевидна для нас, но если мы идем по этому пути, мы должны четко осознавать, что все страны способны провести эту черту между тем, что хорошо, и что плохо. Это значит, что эта технология должна носить глобальный характер, и мы - то общество, несущее за нее ответственность. Это главная проблема, и нам необходимо сосредоточиться на том, какое влияние она окажет. Интересно, что в некоторых северных странах, например, Швеции, Норвегии и так далее, есть Министерство Будущего. Цель этого министерства - предсказывать, как то, что мы делаем сейчас, повлияет на население, на социум, на окружающую среду, и как мы можем это контролировать.

    Что касается нас, футуристов, для каждой технологии и каждого рынка у нас особые предсказания. Мы не аналитики, мы ничего не ожидаем, но достаточно хорошо представляем, что могло бы произойти в ближайшие пять лет, знаем об основным сферах влияния технологий, хотя это все гипотезы. Но это не главное, главное - что мы делаем с этим. Я не могу сказать точно, что произойдет через пятнадцать лет, но я вижу основные тренды и могу сказать, какой тренд какое влияние окажет на людей, на бизнес и так далее. Мы должны двигаться в этом направлении.

    Для бизнеса мы все рассчитываем на 10 лет вперед, потому что необходимо понимать, где мы будем спустя это время.

    Похожие публикации