Роботы по ГОСТу: Россия пытается сделать ИИ безопасным и спасти человечество

Фото: wikimedia

Опасность нейросетей все острее осознается в мире. ИИ научились врать, изображать из себя детей и обходить тест Тьюринга. О том, как ИИ может превратить весь мир в набор канцелярских скрепок и даже не осознает этого, почему к нейросети больше не применимы законы робототехники Азимова и как Россия купирует эту потенциальную опасность, читайте в материале  «Точки».

«Тревожные звоночки»

В России вновь напомнили о стандартах безопасности применения искусственного интеллекта. По словам главы Росстандарта Антона Шалаева,

«В России, в отличие от зарубежных стран, разрабатываются не столько общесистемные стандарты, сколько стандарты отраслевого применения. Что это означает? Для того, чтобы внедрять технологию искусственного интеллекта, должно быть обеспечено самое важное – доверие к ней».

В последние годы, с активным внедрением ИИ во всё новые отрасли, речь о безопасности применения ИИ, да и самого этого явления становится все актуальнее. Хотя бы потому, что даже разработчики нейросетей не до конца понимают, что у них получится на выходе и как пойдет развитие того или иного искусственного интеллекта.

Хотя уже сейчас есть определенные «тревожные звоночки». К примеру, в 2023 году выяснилось, что самая известная на сегодняшний день нейросеть Chat-GPT в четвертой своей итерации умеет врать. И, более того, вполне в состоянии обмануть человека.

Первый подобный прецедент состоялся в рамках эксперимента, когда разработчики поставили перед нейросетью задачу войти на сайт, защищённый «капчей». Такой системой защиты, которую может пройти только человек, поскольку она часто рассчитана на ассоциативное мышление.

ИИ, в свою очередь, нашел в Сети некоего пользователя, перед которым изобразил слабовидящего человека и попросил его пройти «капчу» вместо себя. Что и было сделано.

Фото: piqsels

Дальше – больше. Сейчас в профильных изданиях пишут, что нейросети научились имитировать ребенка и процесс его взросления. Такой «ребенок» сначала проходит тестовые задания, как будто ему два года, затем три, потом шесть и так далее.

Ну и финальным аккордом все тот же Chat-GPT-4 научился обманывать людей при прохождении теста Тьюринга. На сегодняшний день главного теста, который определяет, с человеческим ли разумом ведется коммуникация или с машиной. Нейросеть убедила в том, что она «человек» 54% тестеров.

Казалось бы, ну умеет хорошо обманывать некая программа или даже несколько программ? Но они же где-то там, в виртуальном пространстве и напрямую на человеческую жизнь не влияют? Но опасность все же несколько больше, чем представляется на первый взгляд.

«Максимизатор скрепок» в «Китайской комнате»

Разработчики, когда нейросеть обманула пользователя с «капчей», поинтересовались, зачем ИИ это сделал. И Chat-GPT-4 «ответил», что таким способом поставленная ему задача выполнялась максимально эффективно. И это крайне важный для нашей истории ответ.

Начать стоит с того, что есть ряд гипотез, которые на концептуальном уровне описывают, что такое ИИ сейчас и, исходя из этого, что нейросеть может сотворить, если дать ей достаточно мощностей и поставить даже самую безобидную задачу. В первую очередь стоит упомянуть так называемую «Китайскую комнату», мысленный эксперимент Джона Сёрла, который тот провел еще в 1980 году. Это описание ситуации, где в некоей изолированной комнате с набором иероглифов находится оператор. Снаружи комнаты находится человек, который через щель в двери выдает оператору те или иные иероглифы. Оператор, при этом, совершенно не знает китайского языка.

Но у него есть подробная инструкция, которая указывает ему на какие входящие иероглифы отвечать теми, что есть у него в комнате. Так создается иллюзия осмысленного общения. Человек снаружи думает, что ведет осмысленное общение, оператор же просто выполняет алгоритмы, заложенные в инструкции. Без всякого понимания сути диалога.

Фото: wikimedia

Сёрл так описал работу любой программы, в том числе и нейросети, которая «не понимает» содержания процессов, над которыми работает. Но у неё есть четкая форма, по которой эти процессы выполняются.

Более того, эти формы у «открытых» нейросетей, которые имеют неограниченный доступ к информации постоянно совершенствуются. И в рамках работы программистов, и на уровне самостоятельного усложнения и уточнения.

Но по большому счету нейросети абсолютно все равно, что вы у неё спрашиваете: какой у неё любимый цвет или как создать ядерную бомбу в домашних условиях.

И здесь мы переходим ко второму мысленному эксперименту под названием «Максимизатор скрепок» Ника Бострома, опубликованный им в 2023 году, как раз на фоне новостей про то, что нейросети научились врать. Суть «максимизатора» в ситуации, когда искусственному интеллекту, который обладает неограниченным доступом к ресурсам и мощностям, дают в целом безопасную задачу: производить канцелярские скрепки. ИИ, выполняя задачу «максимально эффективно», мог бы переработать в скрепки или в машины, производящие скрепки, всю окружающую материю, в том числе и людей. Не потому, что ИИ «жесток», а потому, что в его алгоритмах заложен критерий максимальной эффективности, а вот суть процесса он осознать не может. Потому что ни сознания, ни самосознания у нейросети – нет.

Азимов здесь не работает

И вот здесь, как раз и начинается речь про ограничения, стандарты, этику и прочие барьеры для работы ИИ. В словах главы Росстандарта Антона Шалаева очень важно упоминание о том, что на Западе пока разрабатываются «общесистемные стандарты». Если максимально упрощать, то это такие нормы, которые так или иначе отталкиваются от законов робототехники Азимова:

«Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам».

Фото: wikimedia

Только вот что такое «вред», и кто определяет конкретное содержание этой категории? Определяет, понятным образом, человек. Но в самом абстрактном смысле, вот эвтаназия – это «вред»? Традиционалист скажет, что да – несомненно. Но «прогрессивный Запад» постепенно, от государства к государству, внедряет практику эвтаназии, считая её благом.

Ограничение свободы человека и принудительный труд, а то и принудительное медикаментозное вмешательство в человеческий организм – это «вред»? Вроде бы, да. Но что тогда делать с таким явлением, как тюремное заключение или принудительное лечение, особенно в сфере психиатрии?

И да, тут конечно, можно сказать, что ИИ-«тюремный надзиратель» — это какая-то фантастика. Только вот в России предложения внедрять нейросети в пенитенциарную систему озвучиваются Министерством юстиции с 2020 года. Официально озвучиваются, на уровне «Российской Газеты».

Вообще, если посмотреть на общемировую практику внедрения ИИ, то оказывается, что нейросети уже давно не где-то там, в киберпространстве. Они в нашей повседневной жизни: в медицине, такси, судопроизводстве, шире, документообороте, в транспортной системе, системе наблюдения за людьми, в коммерции и рекламе, в журналистике и культуре и можно перечислить еще множество отраслей, где так или иначе присутствуют «нейросетки».

Пока – на уровне «помощников», которые контролируются людьми. Но отличие нейросети от обычной программы, как и говорилось выше, в том, что алгоритмы ИИ постоянно совершенствуются. И где гарантия, что в какой-то момент ИИ не «решит», что человеческий оператор является «помехой» для максимально эффективного выполнения поставленной ему задачи? А следующим логичным шагом будет решение, что не только оператор, но и человек в принципе – это какая-то досадная помеха.

Что в итоге?

Здесь как раз очень хорошо сработают те самые «отраслевые стандарты». По сути, в России смотрят на нейросети именно как на прикладные инструменты. И по этому пути, кажется, и пойдет развитие ИИ в нашей стране. При этом, что характерно, никакого нео-луддизма и отказа от высоких технологий на уровне государства нет и в помине. Еще в декабре 2023 года президент России Владимир Путин заявил о невозможности остановить процесс развития нейросетей и подчеркивал:

«А значит, нужно возглавить – во всяком случае, нужно сделать все для того, чтобы мы могли быть одними из лидеров в этом направлении».

Фото: wikimedia

По факту, прикладных задач для нейросетей у нас много. И для каждой из них вырабатываются свои ГОСТы. То есть те максимально конкретные ограничители, которые будут работать с профильными ИИ конкретно в той или иной отрасли применения. Уже на сегодня в России около 100 ГОСТов в сфере искусственного интеллекта.

И тут, конечно, можно сказать, что наша страна и здесь первая в сфере бюрократизации. И что наша бюрократия крайне сурова… Но кажется это как раз тот случай, когда вся российская бюрократическая «хтонически-болотная мощь» пойдет на благое дело. А то, как-то не очень хочется стать пачкой канцелярских скрепок.

Ранее «Точка» сообщала о скором запуске в Петербурге и Москве беспилотных трамваев.

Подготовил Александр Чаусов

Подписывайтесь и читайте нас в удобном формате в соцсетях: ВКОНТАКТЕ, ДЗЕН и ТЕЛЕГРАМ