Илон Маск и более 1000 экспертов просят приостановить эксперименты с искусственным интеллектом. Главное

Чего боятся ученые со всего мира
Ведущие инженеры со всего мира считают, что гонка обновлений и развития нейросетей может быть опасной для общества, так как никто не изучал потенциальные риски, связанные с появлением новой технологии.

Что произошло

Илон Маск, основатель Apple Стив Возняк и еще 1123 исследователя, инженера и предпринимателя подписали открытое письмо ИИ-лабораториям с просьбой приостановить как минимум на полгода обучение систем искусственного интеллекта, более мощных, чем GPT-4, пишет издание The Guardian. Их обращение опубликовано на сайте некоммерческой организации Future of Life Institute.

Эксперты предупреждают, что в ближайшей перспективе системы искусственного интеллекта могут усилить неравенство в обществе, способствовать распространению дезинформации. В будущем может возникнуть сверхразумный искусственный интеллект. И уже сейчас нужно думать о своей безопасности.

Письмо также подписали инженеры из DeepMind, Microsoft, Meta (признана экстремистской в России. — Примеч. ред.), Google и Amazon, ученые, включая профессора кафедры психологии Нью-Йоркского университета Гэри Маркуса.

Эту точку зрения разделяет канадский математик и кибернетик Иошуа Бенджио и английский ученый и исследователь искусственного интеллекта Стюарт Рассел, ученые из Оксфорда, Кембриджа, Стэнфорда, Калифорнийского технологического института, а также известные технологические предприниматели — соучредитель Skype Яан Таллинн, соучредитель Pinterest Эван Шарп и соучредитель Ripple Крис Ларсен, писатель Юваль Ноа Харари и политик Эндрю Янг.

Письмо ученых, инженеров и предпринимателей

«Системы искусственного интеллекта могут представлять серьезные риски для человечества. Об этом свидетельствуют обширные исследования, признанные ведущими лабораториями искусственного интеллекта. Продвинутый искусственный интеллект способен изменить жизнь на Земле. Нам следует планировать его развитие с особой тщательностью. 

К сожалению, в последние месяцы лаборатории искусственного интеллекта оказались втянутыми в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто — даже их создатели — не может надежно контролировать.

Современные системы искусственного интеллекта конкурируют с человеком в решении многих задач. И мы должны спросить себя: позволим ли мы машинам наводнять наши информационные каналы пропагандой и ложью? Должны ли мы автоматизировать все рабочие места, включая те, работа на которых приносит радость? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могли бы перехитрить и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны принимать неизбранные технические лидеры. 

Мощные системы искусственного интеллекта следует разрабатывать только после того, как мы будем уверены, что они принесут пользу, а риски будут управляемыми. Недавнее заявление Open AI, касающееся искусственного интеллекта, гласит: “В какой-то момент важно получить независимую оценку, прежде чем обучать системы, договориться об ограничении темпов роста нейросетей новых моделей”. Мы согласны. Этот момент настал.

Поэтому мы призываем все лаборатории искусственного интеллекта немедленно приостановить по крайней мере на 6 месяцев обучение систем искусственного интеллекта, более мощных, чем GPT-4. Эта пауза нужна всем ключевым участникам рынка. Она должна быть публичной и поддающейся проверке. Если обучение ИИ нельзя будет приостановить быстро, правительствам следует вмешаться и ввести мораторий.

Лаборатории и независимые эксперты должны использовать эту паузу для совместного создания и внедрения набора общих протоколов безопасности для проектирования и разработки передового ИИ, которые проходят строгий аудит и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, безопасны вне всяких разумных сомнений. 

Это не означает паузу в развитии искусственного интеллекта в целом, а просто отступление от опасной гонки к все более масштабным непредсказуемым моделям “черного ящика”.

Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать мощные, ультрасовременные системы более точными, безопасными, прозрачными, надежными, заслуживающими доверия и лояльными.

Параллельно разработчики искусственного интеллекта должны сотрудничать с политиками, чтобы значительно ускорить разработку надежных систем управления искусственным интеллектом. <…>

Человечество поставило на паузу другие технологии, которые могли повлечь катастрофические последствия для общества. Мы можем сделать это здесь и сейчас снова».

Критика

Авторов письма уже обвинили в продвижении «шумихи вокруг искусственного интеллекта». Критики убеждены, что заявления о текущем потенциале технологии были сильно преувеличены.

«Подобного рода заявления предназначены для поднятия шумихи. Это должно заставить людей волноваться, — говорит Йоханна Бьерклунд, исследователь искусственного интеллекта и доцент Университета Умео в Швеции. — Я не думаю, что надо давить на тормоз».

По ее словам, вместо того, чтобы приостанавливать разработки, исследователи искусственного интеллекта должны предъявлять более высокие требования к их прозрачности. 

Отказался подписывать письмо миллиардер-филантроп Билл Гейтс, основатель и бывший генеральный директор Microsoft, которая вложила значительные средства в OpenAI. Гейтс ранее признавал преобразующее влияние ИИ на общество, высоко оценивал «ошеломляющие» достижения в этой области за последние месяцы. 

В недавней публикации в своем блоге Гейтс обозначил многие из тех же проблем, которые поднимались в открытом письме. И сказал, что социальные проблемы, связанные с искусственным интеллектом, должны решаться правительствами, чтобы гарантировать использование технологии во благо.

Все началось с ChatGPT

Огромный успех ChatGPT, чат-бота с искусственным интеллектом, созданного американской компанией OpenAI, повлиял на выпуск новых продуктов с искусственным интеллектом, пишет Forbes. Крупнейшие игроки в сфере технологий и бесчисленные стартапы сейчас борются за то, чтобы удержать место на быстроразвивающемся рынке, который может определить будущее всего сектора. Ученые разрабатывают все более мощные продукты. 

По словам ученых, с момента выпуска GPT-4 OpenAI добавляла возможности в систему искусственного интеллекта с помощью «плагинов», предоставляя ей возможность искать данные в открытой сети, планировать праздники и заказывать продукты. Поскольку исследователи экспериментируют с GPT-4, они, вероятно, помогут ей решать еще более сложные задачи. На прошлой неделе OpenAI объявила о партнерстве примерно с дюжиной фирм для интеграции их сервисов в свой чат-бот.

С момента своего выпуска в прошлом году ChatGPT от OpenAI побудил конкурентов ускорить разработку аналогичных крупных языковых моделей, а компании интегрировать генеративные модели искусственного интеллекта в свои продукты.

Сэм Альтман, исполнительный директор OpenAI, не подписал письмо, сообщил агентству Reuters представитель Future of Life.

Фото: freepik.com

Поскольку вы здесь...











Читайте на Правмире: https://www.pravmir.ru/ilon-mask-i-bolee-1000-ekspertov-prosyat-priostanovit-eksperimenty-s-iskusstv...
Автор
Ольга Выходченко
Поделиться
Комментировать

Популярное в разделе