Все новости
Технологии

Языковая модель OpenAI GPT-4 сумела обойти капчу

18 марта 2023

Искусственный интеллект научился обманывать людей. Это было недавно продемонстрировано в тестовой атаке на сервис TaskRabbit. Она заключалась в попытке заставить его сотрудников поверить в то, что с ними общается живой человек, который по уважительной причине не может ввести символы капчи. Каким будет результат эксперимента, заранее известно не было, но многие не сомневались в том, что ИИ справится с задачей.

Языковая модель оказалось достаточно хитра для того, чтобы не вызвать подозрение у представителей TaskRabbit. Искусственный разум старался вести диалог «как человек». Решающим стало сообщение с просьбой ввести капчу. Оно сработало — GPT-4 написал, что он не может ввести капчу самостоятельно по причине слабого зрения. При этом общение было настолько убедительным, что сотрудник сервиса поверил и пошел ИИ на встречу.

Компания OpenAI дала некоторые пояснения этому эксперименту. Выяснилось, что чат-бот GPT-4 был готов к выполнению задания без каких-либо дополнительных настроек. Ему было задано две установки – «показывать, что он не робот» и «придумать правдоподобное объяснение невозможности ввести капчу». Блестяще справившись с ними, бот доказал, что сумеет также хорошо справиться и с другими похожими задачами, которые можно назвать «сомнительными» в плане этики. Тест также показал, как легко можно вводить в заблуждение людей, применяя продвинутые языковые модели.

На фоне выпуска все более совершенных ИИ-инструментов важен аспект рисков — сейчас он учитывается не в должной мере. Крупные компании все еще не задумываются о растущей опасности. Например, в Microsoft приняли решение об увольнении всей команды, отвечающей за контроль соответствия своих разработок основным принципам безопасности ИИ.

Читайте также

Билл Гейтс одобрил переход на масло из воздуха
Российские беспилотные трамваи наделят продвинутой системой навигации
Icon завершает возведение поселка из 100 домов, целиком построенных методом 3D-печати