В США опубликовали новые стандарты безопасности ИИ

30 октября администрация президента США Джо Байдена опубликовала указ, устанавливающий новые стандарты безопасности и защиты искусственного интеллекта.

26 пунктов разделены на восемь групп, каждая из которых направлена ​​на то, чтобы ИИ использовался для максимизации предполагаемых преимуществ и минимизации любых рисков. Кроме этого, реализация документа должна поставить США в авангарде определения барьеров для технологии и содействия продолжению исследований.

«Исполнительный указ […] защищает частную жизнь американцев, продвигает равенство и гражданские права, защищает интересы потребителей и работников, поощряет инновации и конкуренцию, способствует американскому лидерству во всем мире и многое другое», — говорится на сайте.

Документ требует от разработчиков «самых мощных» ИИ-систем делиться с правительством результатами испытаний на безопасность и «критической информацией». В целях обеспечения защиты и надежности технологии планируется разработать стандартизированные инструменты и тесты.

В документе говорится о росте «мошенничества и обмана с использованием искусственного интеллекта», необходимости создания инструментов для поиска и устранения уязвимостей в критически важном ПО, а также разработке меморандума о нацбезопасности. Последний призван определить в дальнейшем действия в области ИИ и безопасности.

«Без гарантий искусственный интеллект может еще больше подвергнуть риску частную жизнь американцев. ИИ не только упрощает извлечение, идентификацию и использование персональных данных, но и повышает стимулы к этому, поскольку компании используют данные для обучения систем ИИ», — говорится в указе.

Согласно документу, безответственное использование технологии может привести к дискриминации, предвзятости и другим злоупотреблениям.

«ChatGPT — антоним „Википедии“». Философ Гаспар Кёниг — об угрозах ИИ, выдуманных и реальных

В мае глава OpenAI Сэм Альтман выступил перед Конгрессом США и призвал правительство урегулировать использование и разработку искусственного интеллекта. Ранее исследователи компании предупредили о растущей угрозе использования языковых моделей для распространения дезинформации.

Напомним, в июне представители ООН заявили, что созданные ИИ дипфейки вредят целостности информации и приводят к разжиганию ненависти в обществе.

В свою очередь американские ученые призвали к противодействию дипфейкам, созданным «вражескими государствами».