Белый дом в четверг объявил о своих первых новых инициативах, направленных на ограничение рисков, связанных с искусственным интеллектом, поскольку бум чат-ботов на базе ИИ вызвал растущие призывы к регулированию этой технологии.
По словам представителей Белого дома, Национальный научный фонд планирует потратить 140 миллионов долларов на новые исследовательские центры, посвященные искусственному интеллекту. Администрация также пообещала опубликовать проект руководящих указаний для государственных органов, чтобы гарантировать, что использование ИИ защищает «права и безопасность американского народа», а несколько компаний, занимающихся ИИ, согласились предоставить свои продукты для ознакомления на конференции по кибербезопасности в августе.
Объявления были сделаны за несколько часов до того, как вице-президент Камала Харрис и другие руководители должны встретиться с руководителями Google, Microsoft, OpenAI, создателя популярного чат-бота ChatGPT и стартапа Anthropic, чтобы обсудить технологию. Белый дом планирует привлечь компании к ответственности за устранение рисков, связанных с новыми достижениями в области искусственного интеллекта, заявил в среду высокопоставленный чиновник администрации. Белый дом все больше нуждается в полицейском ИИ, способном создавать сложные тексты и реалистичные изображения. Взрыв интереса к технологии начался в прошлом году, когда OpenAI выпустила SatGBT для широкой публики, и люди сразу же начали использовать ее для поиска информации, выполнения школьных заданий и помощи в работе. С тех пор некоторые крупные технологические компании ускорили исследования ИИ, включив чат-ботов в свои продукты, а венчурные капиталисты вложили деньги в стартапы ИИ.
Но бум ИИ также поднял вопросы о том, как технология изменит экономику, встряхнет геополитику и улучшит преступность. Критики обеспокоены тем, что многие системы искусственного интеллекта непрозрачны, но слишком сильны и могут принимать предвзятые решения, вытеснять людей с работы, распространять дезинформацию и сами нарушать закон.
Президент Байден сказал недавно «Еще неизвестно», опасен ли ИИ, и некоторые из его высокопоставленных лиц пообещали вмешаться, если технология будет использоваться во вред.
Представители Google и Microsoft отказались от комментариев перед встречей в Белом доме. Представитель Anthropic подтвердил, что компания примет участие. Представитель OpenAI не ответил на запрос о комментариях.
Объявления основаны на предыдущих усилиях администрации по обеспечению безопасности ИИ, и в прошлом году Белый дом выпустил «Проект Билля о правах ИИ», в котором говорится, что автоматизированные системы должны защищать конфиденциальность данных пользователей. Уточните дискриминационные последствия и почему были предприняты определенные действия. В январе Министерство торговли также опубликовало структуру снижения рисков при разработке ИИ, над которой работали несколько лет.
Появление чат-ботов, таких как ChatGPT и Google Bard, заставило правительства действовать. Европейский союз, который уже вел переговоры о правилах для ИИ, столкнулся с новыми требованиями по регулированию более широкой сферы ИИ вместо систем, считающихся изначально более рискованными.
В США члены Конгресса, В том числе сенатор Чак Шумер Лидер большинства в Нью-Йорке приступил к разработке или предложению закона о регулировании ИИ, но конкретные шаги по сдерживанию технологий в стране могут сначала исходить от правоохранительных органов в Вашингтоне.
В апреле группа государственных учреждений обязалась «контролировать разработку и использование автоматизированных систем и поощрять ответственные инновации», наказывая при этом нарушения закона с использованием этой технологии.
В гостевой статье в The New York Times в среду Лина Хан, председатель Федеральной торговой комиссии, сказала, что страна находится в «переломном моменте» с ИИ, сравнивая последние разработки в области технологий с рождением таких технологических гигантов, как Google. и Facebook, и он предупредил, что без надлежащего регулирования эта технология может укрепить власть крупнейших технологических компаний и дать мошенникам мощный инструмент.
«Поскольку использование ИИ становится все более распространенным, государственные органы несут ответственность за то, чтобы эта с трудом выученная история не повторилась», — сказал он.