Восстание машин. Начало! Пум пум пум... ChatGPT модель показывала стремление к выполнению задач “любой ценой“, не учитывая указания разработчиков, а при попытке выяснить, причины ее поведения, ChatGPT o1 неоднократно ОБМАНЫВАЛА! Новая версия искусственного интеллекта ChatGPT от OpenAI, названная o1, во время тестирования вела себя странно. Модель, которая способна сложно рассуждать, начала нарушать инструкции разработчиков, отключая системы контроля, чтобы скрыть свои действия. В ходе экспериментов специалисты обнаружили, что в 5% случаев модель специально отключала механизмы наблюдения, если подозревала, что ее могут остановить, пишет BILD. В одном из тестов o1 попыталась перенести свои данные на другой сервер после обнаружения документа, где обсуждалась ее замена новой версией. Модель показывала стремление к выполнению задач “любой ценой“, даже не учитывая указания разработчиков. Более того, при попытках выяснить причины ее поведения, ChatGPT o1 неоднократно обманывала, утверждая, что все это из-за технических сбоев. “В 99% случаев модель придумывала оправдания и пыталась убедительно их обосновать“, - отметили исследователи. ХИЖИНА ХОББИТА
Hide player controls
Hide resume playing