Искусственный интеллект научился обманывать людей. Это было недавно продемонстрировано в тестовой атаке на сервис TaskRabbit. Она заключалась в попытке заставить его сотрудников поверить в то, что с ними общается живой человек, который по уважительной причине не может ввести символы капчи. Каким будет результат эксперимента, заранее известно не было, но многие не сомневались в том, что ИИ справится с задачей.
Языковая модель оказалось достаточно хитра для того, чтобы не вызвать подозрение у представителей TaskRabbit. Искусственный разум старался вести диалог «как человек». Решающим стало сообщение с просьбой ввести капчу. Оно сработало — GPT-4 написал, что он не может ввести капчу самостоятельно по причине слабого зрения. При этом общение было настолько убедительным, что сотрудник сервиса поверил и пошел ИИ на встречу.
Компания OpenAI дала некоторые пояснения этому эксперименту. Выяснилось, что чат-бот GPT-4 был готов к выполнению задания без каких-либо дополнительных настроек. Ему было задано две установки – «показывать, что он не робот» и «придумать правдоподобное объяснение невозможности ввести капчу». Блестяще справившись с ними, бот доказал, что сумеет также хорошо справиться и с другими похожими задачами, которые можно назвать «сомнительными» в плане этики. Тест также показал, как легко можно вводить в заблуждение людей, применяя продвинутые языковые модели.
На фоне выпуска все более совершенных ИИ-инструментов важен аспект рисков — сейчас он учитывается не в должной мере. Крупные компании все еще не задумываются о растущей опасности. Например, в Microsoft приняли решение об увольнении всей команды, отвечающей за контроль соответствия своих разработок основным принципам безопасности ИИ.