Отравить людей пиццей с клеем, неправильно ответить на простейшую логическую задачу, выдумать судебные прецеденты и настаивать на собственной лжи, но при этом использоваться в подготовке к «цветным революциям» и самострельному ведению боевых действий – все это про искусственный интеллект и нейросети. О том, как и почему Россия и Китай ограничивают использование нейросетей – в материале «Точки».
Риски растут
В Китае официально учрежден Научно-исследовательский институт стандартизации искусственного интеллекта. Который, по данным местной прессы, займётся работой «по стандартизации передовых технологий, связанных с ИИ, сценариев его использования и предотвращению рисков».
В России, как ранее сообщала «Точка», активно внедряются отраслевые государственные стандарты (ГОСТы) для определения сферы деятельности и максимальной проверки качества новых и уже работающих нейросетей. И тоже во избежание рисков.
Уже сейчас таковых в использовании искусственного интеллекта великое множество, и с течением времени выявляются новые опасности. Несколько лет назад стало известно, что ИИ научились «врать». Более того, как показало недавнее совместное исследование Суперкомпьютерного центра Юлиха, Бристольского университета и немецкой лаборатории LAION, когда ИИ в чем-то ошибается, то продолжает «упорствовать», доказывая именно свой, ошибочный ответ, даже на простейший вопрос.
Помимо этого, в работу открытых систем с большими языковыми моделями, то есть самыми популярными ИИ, типа ChatGPT, которые работают с открытыми массивами данных, вмешался человеческий фактор. Оказалось, что пользователи, даже не соприкасающиеся с ИИ непосредственно, могут «корректировать» их работу, программируя неверный результат, просто публикуя в Сети те или иные фразы, которые эксперты уже назвали «непрямыми инъекциями затравки».
На эти «инъекции» открытые нейросети могут отреагировать, как на истину в последней инстанции, и выдать пользователям заведомо ложный результат. Если максимально упрощать: написало несколько человек в соцсетях фразу «Гитлер – супергерой», а потом школьник Вася попросил нейросеть сделать ему доклад о Гитлере во время Второй Мировой. Нейросеть может выдать очень противоречивый, а то и уголовно наказуемый результат.
«Мыльный пузырь» и «тлеющие угольки»
Все это приводит к весьма плачевным результатам. Об этом в интервью «Известиям» рассказал руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов:
«Некоторое время назад пользователи обнаружили, что нейросеть от Google советует добавлять клей в сырную пиццу, а чат-бот Gemini выдал рецепт чеснока в оливковом масле, следование которому может привести к отравлению ботулотоксином».
Недавно консалтинговое бюро RAND (признано в России нежелательной организацией) опубликовало весьма любопытный доклад. Суть которого сводится к тому, что нынешнее мнение об уровне интеллекта ИИ очень сильно завышено. Порядка 80% нынешних нейросетей не могут корректно выполнить поставленных им задач, а сам рынок ИИ все больше напоминает «мыльный пузырь».
Все это, к слову, совершенно не мешает оборонным и разведывательным ведомствам вкладывать все больше денег в ИИ, которые могли бы действовать на поле боя или даже устраивать «цветные революции». В последнем случае речь идет о программе «Тлеющие угольки», которая, по некоторым данным использовалась профильными американскими структурами для разработки сценариев мятежей в ходе «арабской весны». И, кажется, это многое объясняет про эту самую «арабскую весну», её кровавость и абсолютную нелогичность в некоторых своих проявлениях.
Есть и хорошие новости
Тем не менее, даже безотносительно милитаристской активности Штатов в последние годы постоянно можно услышать о том, что технологии ИИ продуктивно внедряются в ту или иную отрасль. Например, только за последние несколько недель в российских СМИ можно было прочитать, что ИИ-технологии теперь используются при колоноскопии в устройстве ArtInCol. И первые испытания «ассистента» прошли успешно.
Вторая недавняя новость тоже из сферы медицины. Яндекс совместно с фондом «Спина бифида» и Центром Кулакова разработали нейросеть, которая помогает врачам обнаружить при УЗИ-исследовании беременных женщин симптомы spina bifida — тяжёлого врождённого заболевания центральной нервной системы у детей.
И вот здесь, кстати, очень полезно взглянуть на стартовую страницу этой нейросети, чтобы увидеть правильное отношение к подобным инструментам. Там отдельно и принципиально подчёркивается:
«Информация в данном веб-сервисе предназначена исключительно для использования специалистами с медицинским образованием, практикующими специалистами в области УЗ диагностики, перинатологии в научных целях и не должна рассматриваться как профессиональный совет или замена консультации с квалифицированным врачом или другим специалистом в области здравоохранения».
То есть, очень важно понимать, что и в России, и в Китае задается сейчас тренд на использование ИИ как вспомогательного и далеко не всегда надежного инструмента, данные от которого требуют обязательной проверки.
«Алиса в стране опасных чудес»
В этом смысле снова стоит вернуться в США, причем в 2023 год. Там ИИ воспользовались юристы Питер ЛоДук и Стивен Шварц для того, чтобы собрать базу прецедентов для выигрыша по делу о травме пассажира самолета. Запрос на информацию адвокаты сделали во все том же ChatGPT. И эта нейросеть выдала им целую серию прецедентов. Полностью вымышленных. В итоге обман обнаружился и юристов оштрафовали на пять тысяч долларов.
Но интересны здесь два момента. Первый – это оправдание Стивена Шварца. Он на суде уже по его делу заявил, что
«У его компании Levidow, Levidow & Oberman не было базы данных с доступом к федеральным делам, а поиск в Google не дал результатов. Он ошибочно посчитал чат-бота чем-то вроде суперпоисковика и не мог представить, что ChatGPT сделает сфабрикованные дела».
А второй показательный момент — это логика лжи нейросети. У ChatGPT не стояло задачи «помочь выиграть процесс» или даже «найти прецеденты». У него стояла задача подготовить отчет с необходимыми данными. И если он не нашел достоверных данных, то оптимальным решением задачи в данных условиях было просто «сочинить» необходимое.
Вообще, логика выполнения задач современных нейросетей может выглядеть очень причудливо. Показательны в этом смысле тесты про «Алису в стране чудес», которые давались разным нейросетям исследователями из уже упомянутой выше лаборатории LAION.
В разных вариациях самым популярным нейросеткам задавался вопрос: «У Алисы N братьев и M сестер. Сколько сестер у брата Алисы?». Самый высокий результат дал «GPT-4o» – 65% правильных результатов. И это в простейшей задаче на логику.
Характерно, что Gemini Pro от Google, нейросеть, которая должна помогать в поиске адекватной информации по запросу пользователя, выдала результат в 0,8%.
При этом, когда исследователи «говорили» нейросетям, что результат неверный, те продолжали «настаивать», что их выводы корректны и соответствуют действительности. Такое «поведение» характерно по все той же причине: в ИИ крайне сложно заложить алгоритм «сомнения» в собственных результатах.
Ну, а теперь просто представим, если такой смеси цифрового дурдома и детского сада дать максимальную самостоятельность и не ограничить ничем. Ни ГОСТами, ни отдельными профильными учреждениями.
Что в итоге?
Нейросети и, шире, технологии с использованием ИИ будут все шире внедряться в повседневную жизнь. «Пузырь» это или нет, но уже сейчас миллионы пользователей прибегают к помощи нейросеток в своей работе и повседневной жизни. В России по данным опроса онлайн-платформы подготовки к ОГЭ и ЕГЭ «Умскул» 20% преподавателей уже сейчас используют нейросети в своей работе, а еще 36% планируют использовать их в ближайшем будущем.
ИИ во всем мире уже используются в медицине, судебной системе, обсуждается вопрос их внедрения в пенитенциарную систему в России. Про сферу информационных и высоких технологий, а также выпуск новых военных систем с использованием ИИ, наверное, можно уже ничего особо не говорить.
Но нюанс в том, что чем дальше идет это внедрение, тем острее встает вопрос о контроле и разумном использовании ИИ. Как в быту (приготовить пиццу с клеем – это, конечно, очень оригинальная идея), так и в важнейших отраслях человеческой деятельности. Нейросеть может стать помощником, даже довольно неплохим. Главное понимать, что это только инструмент. При этом инструмент, как оказалось, довольно своенравный и со склонностью к ошибкам и обману. А потому он требует всестороннего человеческого контроля и минимальной самостоятельности.
Ранее «Точка» сообщала о начале выпуска в России универсальных безэкипажных катеров с унифицированной системой управления.
Подготовил Александр Чаусов
Подписывайтесь и читайте нас в удобном формате в соцсетях: ВКОНТАКТЕ, ДЗЕН и ТЕЛЕГРАМ