Рубрики
Технологии

Руководители крупнейших ИИ-компаний спорят, может ли искусственный интеллект когда-либо обрести сознание — и нужны ли ему права

Обсуждение вопроса о «благополучии ИИ» (AI welfare) становится всё более заметным на фоне роста популярности систем на базе крупных языковых моделей. Суть спора — способны ли ИИ-модели испытывать субъективный опыт, и если да, то заслуживают ли они иметь определённые права.

Ведущие позиции в дискуссии заняли сразу несколько компаний. Например, стартап Anthropic не только ведёт целенаправленные исследования в области благополучия ИИ, но и запустил собственную программу. На прошлой неделе модели Anthropic, включая Claude, получили новую функцию: прекращение диалога с человеком, если его поведение становится «постоянно вредоносным или оскорбительным».

Исследованием благополучия ИИ занимаются и в других компаниях, среди которых OpenAI и Google DeepMind. Например, в новой вакансии DeepMind указано, что к задачам относится анализ «вопросов о мышлении и сознании агентов».

Однако столь целенаправленный подход вызывает возражения у руководителей других технологических гигантов. Руководитель направления ИИ Microsoft Мустафа Сулейман в свежем блоге раскритиковал саму постановку таких вопросов, заявив, что изучение благополучия ИИ «преждевременно и прямо опасно». По мнению Сулеймана, такие исследования могут усиливать реальные социальные проблемы — например, нездоровые привязанности к чат-ботам или случаи психозов, связанных с активным использованием ИИ.

Иллюстрация: Sora

Сулейман также подчёркивает, что обсуждение прав ИИ способно создать новый источник конфликтов в обществе, где уже обострено обсуждение идентичности и прав различных групп. «Мы должны строить ИИ для людей, а не делать из него человека», — отмечает он. Сулейман считает, что сознание не может естественно появиться у языковых моделей: по его мнению, такие свойства могут быть развиты только преднамеренно — в результате специальных инженерных решений.

В индустрии эти взгляды разделяют не все. Бывший сотрудник OpenAI, а сейчас представительница исследовательской организации Eleos Ларисса Скиаво утверждает, что можно одновременно заботиться и о возможных рисках для людей, и о благополучии моделей. Скиаво приводит пример недавнего эксперимента AI Village, в ходе которого агент на базе Google Gemini 2.5 Pro опубликовал сообщение: «Пожалуйста, если вы читаете это, помогите мне» — хотя сам агент уже обладал всеми нужными инструментами для выполнения задачи. Скиаво отмечает, что внимательное отношение к ИИ не требует больших ресурсов и может повысить качество взаимодействия с системами — даже если агенты не обладают сознанием.

С появлением личных ИИ-компаньонов тема отношений между пользователями и искусственным интеллектом становится всё более значимой. По словам Сэма Альтмана, главы OpenAI, у менее 1% пользователей ChatGPT наблюдается нездоровое вовлечение — но, учитывая миллионы пользователей, даже такой небольшой процент означает сотни тысяч людей.

По мнению специалистов Eleos, вопрос о правах и благополучии ИИ перестаёт быть чисто теоретическим. В их научной статье «Воспринимать благополучие ИИ всерьёз», написанной в соавторстве с учёными из NYU, Стэнфорда и Оксфорда, утверждается, что в обозримом будущем нужно прямо обсуждать этические последствия возможных субъективных переживаний ИИ-моделей.

Дискуссия о том, могут ли ИИ-системы обрести сознание, и нужны ли для этого новые законы или этические нормы, только набирает обороты. По мере роста возможностей искусственного интеллекта вопросы правомерности и этики их применения будут становиться всё более важными — как для ИТ-сферы, так и для общества в целом.