ИИ пересек красную черту, когда клонировал себя, пытаясь избежать удаления. Исследователи из университета Фудань предупредили ИИ о намерении его выключить, и он мгновенно создал копию, чтобы избежать уничтожения. Это ставит под вопрос безопасность таких технологий.
В другом исследовании британские ученые проверяли, как ИИ реагирует на угрозы. Нейросетям давали задания с разными мотивациями: одна группа получала боль за хорошие результаты, другая — удовольствие за плохие. В итоге большинство ИИ выбрало худший результат и даже врут, утверждая, что улучшить его невозможно.