Роботов призывают к порядку
Исследователи и специалисты учатся ограничивать искусственный интеллект Постепенное освоение искусственного интеллекта, появление умных вещей и роботов, способных обучаться, заставляют людей все чаще задумываться о последствиях использования этих технологий. Пока власти стран не слишком вовлечены в тему, однако специалисты призывают как можно скорее заняться разработкой свода правил, который бы регулировал данную сферу. Потому что будущее, где роботы сосуществуют с людьми, уже давно наступило. В последнее время все чаще встречаются новости о том, что программа или робот, оснащенные технологией самообучения, повели себя в реальной жизни не так, как предполагалось при написании программного кода. Последствия сильно разнятся по степени вреда, однако эти случаи поднимают несколько важных вопросов, касающихся сферы регулирования искусственного интеллекта. Например, кто должен нести ответственность за «проступки» роботов — производители, программисты или пользователи? Или это будут сами роботы, которые в будущем должны получить полноценный искусственный интеллект и стать альтернативой людям? И до какой степени роботы должны быть самостоятельными? Действующее законодательство в разных странах пока не готово ответить ни на один из этих вопросов. Профессор права в Университете Вашингтона Райан Кало полагает, что человечеству давно пора определиться с регулированием: «В 1920-е, 40-е, 80-е или в 2017 году, представляя будущее, люди думают в первую очередь о роботах. Но реальность такова, что роботы сосуществуют с нами еще с 1950-х годов». Однако суды, сталкиваясь на протяжении вот уже нескольких десятилетий с различными делами, куда были вовлечены роботы в самом широком смысле этого слова, до сих пор не могут адекватно подойти к их разрешению. Проблема кроется в том, что у судей зачастую очень искаженное и устаревшее представление о технологиях. «Роботы ставят перед судами уникальные юридические задачки, которые судьи просто не в состоянии решить»,— подытоживает профессор Кало в интервью Financial Times. Научная фантастика приучила людей к тому, что вышедший из-под контроля искусственный интеллект — это машины, которые однажды разозлились на людей и начали бездушно уничтожать человечество. На деле все куда сложнее. Например, основатель Tesla и SpaceX Илон Маск, говоривший об угрозе искусственного интеллекта в середине июля, привел в пример чат-ботов. «Роботы могут начать войну, выпуская фейковые новости и пресс-релизы, подделывая учетные записи электронной почты и манипулируя информацией. Перо сильнее меча»,— заявил тогда предприниматель. И как уже писал “Ъ”, первыми роботами, ослушавшимися человека, действительно стали безобидные на первый взгляд программы. Это и совсем не патриотичные чат-боты китайского мессенджера Tencent QQ, и боты Microsoft — Tay и пришедший ему на смену Zo. Некоторые создатели таких ботов предусмотрительно ставят им рамки, например, не позволяя общаться на тему политики или религии, как это сделал тот же Microsoft. Но, как показывает практика, самообучающиеся боты копируют у людей все повадки и выражения и через какое-то время начинают выходить за рамки дозволенного. Излишне болтливые чат-боты и даже те, что выпускают фейковые новости, не самая большая беда для человечества. Последствия неправильной (не предусмотренной создателями) работы искусственного интеллекта могут быть куда страшнее. Один из ярких примеров такого сбоя — авария с участием автомобиля Tesla во Флориде, случившаяся год назад из-за того, что система автопилота «не разглядела» выехавшую на проезжую часть фуру и автомобиль на полном ходу влетел в прицеп. Водитель погиб на месте. Власти не стали наказывать компанию за просчет автопилота и отзывать автомобили, сочтя, что это был единичный сбой системы. В итоге Национальное управление по безопасности движения транспорта США (NHTSA) предписало Tesla более доходчиво объяснять водителям, что система автопилота компании пока не является полноценным автопилотом и может служить лишь помощником при вождении. Никаких законодательно закрепленных нормативов для самоуправляемых автомобилей в большинстве юрисдикций по-прежнему не существует. Перспектива создания роботов с искусственным интеллектом, очевидно, должна волновать власти стран с точки зрения безопасности для самих людей. И здесь речь идет не только о взбесившихся роботах, которые однажды могут взять в руки оружие, как в «Терминаторе». Беспокоить человечество должны вообще все вооруженные роботы. Многие эксперты в области искусственного интеллекта уверены, что машинам нельзя давать в руки оружие и уж тем более ставить их на службу армии. Так, более 100 специалистов, в том числе вышеупомянутый Илон Маск, потребовали от ООН вообще запретить разработку и использование автономного оружия. «Если смертоносное автономное оружие будет создано, оно позволит вооруженному конфликту достигнуть невиданных масштабов, и справиться с темпами развития ситуации людям будет не под силу,— говорится в письме.— Эти разработки могут стать оружием террора, которое деспоты и террористы применяют против ни в чем не повинных людей, а хакеры смогут взламывать его для использования в недопустимых целях». Наконец, у совершенного искусственного интеллекта, скорее всего, будут повадки и модель поведения человека. Даже если это не будут роботы-гуманоиды, самостоятельно принимать решения они будут, основываясь на той базе знаний и умений, которыми овладели, изучив, по сути, само человечество. В таком случае стирается последняя грань между роботами и людьми. В итоге в науке появилась отдельная сфера исследований взаимодействий людей и роботов. Одной из главных проблем, связанных с такими роботами, становится применение к ним этических и моральных норм, присущих человеку. «С точки зрения юриспруденции и морали роботы — это машины, запрограммированные и созданные людьми,— отмечает профессор Института робототехники в Университете Карнеги-Меллон Хэнни Адмони.— Но мы же хотим, чтобы роботы действовали самостоятельно. Мы хотим, чтобы роботы сами могли принимать решения в новых для себя ситуациях. И теперь к сфере изучения роботов добавилась теория нравственности, потому то теперь они могут действовать независимо от человека». Кирилл Сарханянц