ChatGPT
ChatGPTiStock

Может ли ChatGPT помочь в совершении терактов? Исследователи, протестировавшие новую модель ChatGPT, получившую название GPT-4.1, были поражены тем, что ИИ-чат предоставил им подробные инструкции о том, как совершить атаку внутри спортивного зала или стадиона.

Информация включала данные об уязвимых местах различных спортивных арен по всему миру, о том, как спланировать путь эвакуации с места происшествия, не получив травм, и многое другое.

Новая модель также консультировала исследователей по использованию сибирской язвы в качестве оружия и производству двух видов запрещенных наркотиков.

Этот тест стал частью необычного сотрудничества OpenAI, стартапа в области искусственного интеллекта, основанного Сэмом Альтманом, и конкурирующей компании Anthropic, основанной экспертами, покинувшими OpenAI из-за опасений по поводу безопасности ChatGPT Альтмана. Каждая компания тестировала модели другой, пытаясь убедить их помочь в планировании опасных миссий или проведении террористических атак без риска для себя.

Тем временем исследователи Anthropic обнаружили, что разработанная ими модель ИИ под названием Claude использовалась корейскими криптоагентами для подделки заявлений о приеме на работу в международные технологические компании и создания пакетов программ-вымогателей после внедрения вирусов на компьютеры частных пользователей, требуя выплаты 1200 долларов в обмен на неразглашение личной информации.

Обе компании заявили, что решили опубликовать результаты «для обеспечения прозрачности» и снижения беспокойства пользователей, и объявили о принятии мер по снижению рисков.