Основатели OpenAI призывают к регулированию, пока нейросеть не уничтожила человечество

ATinformТехно 24.05.2023 в 23:44374Обсудить
Основатели OpenAI призывают к регулированию, пока нейросеть не уничтожила человечество
Фото: Unsplash
Исследователи десятилетиями предупреждали о потенциальных рисках, связанных с суперинтеллектом, но с развитием ИИ эти риски стали более конкретными

Компания OpenAI, разрабатывающая ChatGPT, призвала к регулированию "сверхумных" искусственных интеллектов, чтобы защитить человечество от риска случайного создания чего-то, способного его уничтожить. Об этом сообщает The Guardian.

В краткой записке, опубликованной на сайте компании, соучредители Грег Брокман и Илья Суцкевер и генеральный директор Сэм Альтман призывают международного регулятора начать работу над тем, как "проверять системы, требовать проведения аудитов, тестировать на соответствие стандартам безопасности, налагать ограничения на степень развертывания и уровень безопасности", чтобы снизить "экзистенциальный риск", который могут составлять такие системы.

В краткосрочной перспективе троица призывает к "определенному уровню координации" между компаниями, работающими на передовой исследования в области ИИ, чтобы обеспечить плавную интеграцию разработки все более мощных моделей в общество, предоставляя при этом приоритет безопасности. Такая координация может осуществляться, например, через проект под руководством правительства или коллективное соглашение об ограничении роста возможностей ИИ.

Исследователи десятилетиями предупреждали о потенциальных рисках, связанных с суперинтеллектом, но с развитием ИИ эти риски стали более конкретными. Американский Центр безопасности искусственного интеллекта (CAIS), работающий над тем, чтобы "уменьшить общественные риски от искусственного интеллекта", описывает восемь категорий "катастрофических" и "экзистенциальных" рисков, которые может представлять развитие ИИ.

Лидеры OpenAI говорят, что эти риски означают, что "люди по всему миру должны демократически решать вопрос о границах и настройке систем ИИ", но признают, что "мы еще не знаем, как разработать такой механизм". Впрочем, они говорят, что дальнейшее развитие мощных систем стоит риска.

Аватар Skibair Ирина Скиба / Skibair
Журналист ATinform

24.05.2023 в 23:44
0.0 из 5 // 0 OpenAI, Нейросеть
Комментариев нет.
Войдите, чтобы оставить комментарий.