Опасная привлекательность искусственного интеллекта

Стоит ли бояться цифрового будущего?

“Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом”, — интриговали читателя новостные заголовки СМИ в марте 2016 года. Глава Microsoft Research Питер Ли публично приносил извинения за чат-бота Тау, который за 24 часа активного взаимодействия с пользователями Twitter освоил полный набор расистских высказываний. На тот момент это ещё не было началом восстания машин, просто чат-бот запоминал фразы из твитов пользователей и строил на них свои сообщения. Иными словами, какого бота воспитали, такого и получили. Процесс повсеместного внедрения искусственного интеллекта не только не прекратился, а, по сути, только начался.


Два года назад одно из российских аналитических агентств опубликовало статью об основных направлениях развития ИИ, среди которых выделялись компьютерное зрение, распознавание речи и расшифровка текста, аналитика в принятии решений.Тогда же руководитель Сбербанка (ныне уже СБЕРа) Герман Греф в интервью Forbes сообщил, что развитие технологий ИИ является перспективным направлением для Сбербанка, которое приносит многомиллиардную прибыль. И речь идёт не только о роботах в колл-центрах и голосовых помощниках.

Казалось бы, а что во всём этом плохого? Наука должна развиваться на пользу общества и бизнеса, программисты — работать, а цифровое будущее — неумолимо приближаться. С чего мы вообще взяли, что ИИ несет в себе угрозу? И главное — какую?



Нейросети в интернете

Одна из главных причин для беспокойства — воздействие на общественное мнение посредством использования интернет-ботов.

В качестве примера можно рассмотреть технологию GPT-3 (известную нам как нейросеть) для формирования большого количества правдоподобных текстов на разные темы. Распространение текстов обеспечивается за счёт системы аккаунтов. Этот процесс не требует больших временных и трудовых затрат, при этом доставка информации происходит моментально. По сути, это воплощение той самой теоремы о бесконечном количестве обезьян, которые, случайным образом нажимая на клавиши печатных машин, рано или поздно напишут великий роман. Только в отличие от обезьян нейросети ещё и учатся писать правдоподобнее и лучше.

Неврозы, обусловленные нарастающим темпом жизни и развивающиеся в психике современного человека, являются хорошим фундаментом для манипуляций. Кроме того, согласно результатам исследований Джона-Дилана Хайнеса, наш мозг принимает решение за 4 секунды до того, как до человека доходит осознание этого решения. ИИ достаточно этих 4 секунд для того, чтобы направить человека в нужном ему направлении, при этом сам человек будет твёрдо убежден в том, что это его решение.

Через камеру, голос, текст ИИ анализирует эмоциональное состояние человека, что и даёт возможность направлять нас к нужному выводу. Вопрос безопасности систем, создаваемых человеком, остаётся открытым. Уже известен ряд прецедентов, когда ИИ выходил из-под контроля и это приводило к негативным последствиям.

Ученые активно заверяют нас, что машины только генерируют решения на основе полученных данных и для них нехарактерна осознанность. Принимая во внимание высокую степень обучаемости и воспроизводства данных ИИ, можно прийти к выводу, что осознанность ИИ в перспективе может стать реальностью.

Даже если сегодня ИИ не обладает сознанием, он оказывает на нас всё большое влияние. Осенью 2020 года на платформе Reddit появился блог, на который за короткий промежуток времени подписалось несколько тысяч пользователей. Блог пользовался популярностью, пока один из его подписчиков не заметил, что автор очень “производителен” и публикует много постов в день, что не под силу обычному человеку. Как выяснилось, посты создавались с помощью программы по генерации текстов GPT. Современная версия GPT-3 пишет короткие тексты, очень схожие с человеческими. Возникает логичный вопрос: “Какова доступность программ такого уровня?”. Например, кодом ruGPT, разработанном и обученном на русском корпусе текстов в интернете, может воспользоваться любой пользователь, достаточно просто зайти на Github и найти этот код. Одновременно с этим прослеживается чёткая тенденция к снижению способностей человека: сегодня средняя продолжительность концентрации внимания уменьшилась в 20-30 раз по сравнению с той, что была 10-15 лет назад.

Вывод напрашивается страшноватый: ИИ умнеет, а люди… глупеют.



Распознавание мимики

Приверженцы развития ИИ указывают, что боты с системой распознания мимики могут стать помощниками детям в обучении или сформировать для одиноких людей атмосферу дружеского общения, системы распознания эмоций смогут заметно упростить процесс лечения психических расстройств.  

Казалось бы, что в этом плохого? Но задумаемся вот над чем: в тот момент, когда машины и люди, осуществляющие управление ими, смогут с точностью определять наши эмоциональные состояния, они смогут использовать это не только во благо, но и во вред.


Одна из главных причин для беспокойства - воздействие на общественное мнение посредством использования интернет-ботов.



Перекладывание решений на ИИ повышает зависимость человека от ИИ

Лень современного человека, оправдываемая благородным стремлением к разумности и эффективности, приводит к тому, что все больше сложных задач перекладывается на ИИ. Особенно это актуально для случаев, в которых требуется быстрое принятие оптимального решения.

В качестве примера можно вспомнить, что Мосгорздрав 22 октября 2020 года опубликовал информацию о системе опроса клиентов при обращении в экстренные службы (112, 103) по телефону, где опрос ИИ является обязательным пунктом, без его прохождения нельзя получить доступ к разговору с оператором. Другими словами, опасная ли ситуация или человек, обратившийся за помощью, в стрессе, решает робот.

Возникает вопрос: если ответственность за принятие решения ложится на ИИ, то каков процент ошибок и кто в этом виноват?

Американская компания Epic Systems, занимающаяся изготовлением электронных медицинских карт, хранит медицинские данные о 50% граждан США на своих серверах. Используя слоган “С пациентом в сердце”, компания предлагает портфель, включающий в себя 20 запатентованных ИИ-алгоритмов, их основной целевой задачей является диагностирование заболеваний. Один из самых важных алгоритмов Epic применяется для прогнозирования сепсиса, основной причины летальных исходов в больницах. Сепсис — результат реакции человеческого организма на инфекцию, он отправляет в кровь химические вещества, оказывающие негативное влияние на целостность тканей и повышающих вероятность отказа органа. Если выявить сепсис на ранней стадии, то можно свести негативные последствия к минимуму, однако на практике эта задача трудновыполнима. Согласно информации от Epis, прогнозы, сделанные с помощью их модели ESM, точны в 76-83%, при этом не проводились зависимые тесты алгоритмов, подтверждающие эти данные. Недавно компания всё же опубликовала результаты тестов 38 455 пациентов, 2 552 из них страдали сепсисом. Алгоритму не удалось выявить 67% пациентов с сепсисом, у 88% пациентов, у которых по ESM прогнозировался сепсис, он не был выявлен2.

Оправдание недочётов в работе ИИ, пиар системы ИИ с позиции одностороннего положительного подхода несут в себе угрозу и ведут к замалчиванию проблем, о которых люди обязаны знать.  

Как тут не вспомнить предупреждение покойного Стивена Хокинга, который писал, что с точки зрения исследователя из далекого будущего, рассматривающего процесс развития нашей цивилизации и анализирующего события XXI века, основным достижением этого периода стало бы обнаружение правильного баланса и системы контроля искусственного интеллекта.



Побег из реальности

Мы уже является частью системы алгоритмов социальных сетей. Постепенно ИИ будет формировать представление о наших привычках и желаниях, это в свою очередь будет повышать зависимость от них. Результаты последних исследований говорят о том, что у людей повышается тревожность, обусловленная отсутствием доступа к виртуальной реальности, также увеличивается количество психических расстройств, связанных с зависимостями от ИИ. Это и бессмысленный веб-сёрфинг, и игровая зависимость, и даже киберсексуальные преступления.


Вывод напрашивается страшноватый: ИИ умнеет, а люди... глупеют



Проблема занятости неквалифицированной рабочей силы

В уже упомянутом интервью Герман Греф прогнозировал, что с высокой долей вероятности в ближайшем будущем люди могут столкнуться с потерей работы, вызванной роботизацией. Подобного же рода тревожные прогнозы озвучивают многие эксперты как в нашей стране, так и на Западе. Казалось бы, решением может стать переквалификация. Но очевидно, что далеко не все смогут приспособиться к новым условиям, а это чревато серьёзными социальными конфликтами.

В США автоматизация производства с помощью ИИ привела к тому, что уровень зарплаты понизился на 15%. Последствия такого сдвига очевидны: это и углубление социального расслоения, и усиление маргинализации и криминализации общества.  



Сила прогресса

На протяжении столетий человек стремился облегчить себе жизнь, придумывая всё новые механизмы и технологии. Но сегодня мы перекладываем на роботов то, что человек обязан делать сам: думать и принимать решения. На что иначе нам дана свобода воли?

Если так будет продолжаться и дальше, то с высокой долей вероятности в перспективе люди станут зависимыми от ИИ и принимаемых решений. Для этого потребуется объединение самых талантливых людей планеты, которые совместными усилиями смогут взять под контроль других людей, чтобы определять их желания и стремления.

Мы не рисуем картину цифрового ГУЛАГа, не пытаемся напугать или призвать к отказу от прогресса. Но стоит остановиться, оглядеться и подумать, по правильному ли пути мы идём? Махатма Ганди, рассуждая об угрозах, которые несут человечеству машины, говорил: “Вы против всех машин?» Я отвечаю категорически: “Нет”. Но я против их беспорядочного умножения. Я не хочу восхищаться кажущимся триумфом машин. Я бескомпромиссно против всех разрушительных машин”.


Автор
Евгения Савощикова
Поделиться
Комментировать

Популярное в разделе