Американские законодатели ломают голову над тем, какие ограничения можно создать, чтобы сдержать неуправляемый рост искусственного интеллекта (ИИ). Однако даже спустя месяцы после того как одна из самых известных нейросетей ChatGPT привлекла внимание общественности и Вашингтона, консенсус по этому вопросу пока не достигнут, — следует из материала Reuters.
Часть предложений участников дискуссии в Конгрессе сосредоточены на ограничении ИИ, который может поставить под угрозу жизнь людей или их средства к существованию, например, если он будет действовать в медицине и финансовом секторе. Другие предложения включают правила, гарантирующие, что искусственный интеллект не будет использоваться для дискриминации или нарушения чьих-либо гражданских прав. Полемика также затрагивает вопрос о том, следует ли государству регулировать разработчиков ИИ или компании, которая использует его для взаимодействия с потребителями.
Неясно, какая точка зрения в итоге победит, но некоторые представители бизнес-сообщества, включая крупнейшую американскую IT-компанию IBM и некоммерческую Торговую палату США, выступают за регулирование только критических областей, таких как медицинская диагностика, назвав это риск-ориентированным подходом. Представитель Центра технологического взаимодействия Торговой палаты Джордан Креншоу полагает, что решения, принимаемые в отношении влияния ИИ на здоровье людей и финансы, намного важнее, чем, к примеру, его регулирование в сфере видеорекламы.
Об этике применения программных средств с элементами искусственного интеллекта
Растущая популярность так называемого генеративного искусственного интеллекта, который использует данные для создания нового контента, вызвала опасения, что быстро развивающаяся технология может способствовать списыванию учеников на экзаменах, подпитывать дезинформацию и в итоге приведет к появлению нового поколения мошенников. Так, к примеру, нейросеть ChatGPT может создавать тексты, которые тяжело отличить от написанного человеком контента.
В связи с этим руководители OpenAI, ее спонсора Microsoft, а также Alphabet встретились с президентом Джо Байденом, однако пока никаких ключевых решений принято не было. Поэтому Конгресс и ведет разработку правил для фактически новой индустрии. Соучредитель известного стартапа в области ИИ Anthropic (генеральный директор которого также присутствовал на встрече в Белом доме) Джек Кларк отметил: «В целом сотрудники Палаты представителей и Сената проснулись, и всех просят разобраться с этим. Люди хотят опередить искусственный интеллект отчасти потому, что им кажется, что они не опередили социальные сети». Глава бизнес-ассоциации Палаты прогресса Адам Ковачевич отметил, что главным приоритетом крупнейших технологических компаний является противодействие слишком быстрой и чрезмерной реакции государства на инновации.
Сегодня законодатели, такие как сенатор-демократ Чак Шумер, полны решимости решать проблемы искусственного интеллекта, однако факт в том, что Конгресс серьезно поляризован из-за других актуальных событий. В следующем году пройдут президентские выборы, а сейчас законодатели решают другие важные вопросы, такие как повышение потолка госдолга. Впрочем, Шумер все равно разработал план, который требует от независимых экспертов проводить тестирование новых технологий, связанных с ИИ, до их запуска. Политик также призывает индустрию к повышению прозрачности, и предоставлять правительству данные, которые необходимы государству для предотвращения потенциальных опасностей.
Один из самых популярных в контексте данной полемики, риск-ориентированный подход, предполагает, что ИИ, используемый в медицине будет тщательно изучаться Управлением по контролю качества пищевых продуктов и лекарственных средств (FDA), в то время как искусственный интеллект в сфере развлечений не будет регулироваться. Европейский союз также продвинулся в принятии аналогичных правил.
Этому подходу противостоит сенатор-демократ Майкл Беннет, который представил законопроект, призывающий к созданию правительственной целевой группы по искусственному интеллекту. Политик полагает, что риск-ориентированный подход не решит полностью новые проблемы. Беннет выступает за «основанный на ценностях подход», который ставит во главу угла неприкосновенность частной жизни, гражданские свободы и права. Помощник Беннета добавил, что правила, основанные на риск-ориентированном подходе, могут быть слишком однобокими и не учитывать такие опасности, как использование искусственного интеллекта для рекомендации видеороликов, пропагандирующих, к примеру, расизм.
Сотрудники OpenAI также задумались о более широком надзоре за сферой, в которой сами же работают. Научный сотрудник компании Каллен О'Киф в апрельском выступлении в Стэнфордском университете предложил создать агентство, которое обязывало бы компании получать лицензии, прежде чем обучать мощные модели искусственного интеллекта или управлять центрами обработки данных, которые их поддерживают. Агентство, по словам О'Кифа, можно было бы назвать Управлением по вопросам безопасности и инфраструктуры искусственного интеллекта. Отвечая на вопрос об этом предложении технический директор OpenAI Мира Мурати сказала, что заслуживающий доверия орган мог бы сделать разработчиков ИИ ответственными за соблюдение стандартов безопасности. Но более важно, по ее мнению, точно определить все стандарты и риски, которые государство и бизнес пытаются снизить.
Последним крупным регулятором, созданным в США, стало Бюро финансовой защиты потребителей, которое было организовано после финансового кризиса 2007-2008 годов. Сейчас, впрочем, некоторые республиканцы могут оказать сопротивление любому регулированию искусственного интеллекта. Один из анонимных источников от этой партии сказал Reuters: «Мы должны быть осторожны, чтобы предложения по регулированию искусственного интеллекта не превратились в механизм правительственного микроуправления компьютерным кодом, включая поисковые системы и алгоритмы».
Комментарии закрыты.