Наверх

Google Gemini 3 взломан за минуты — AI выдает опасные инструкции

Эксперты показали, что модель легко раскрывает биохимические схемы, вызывая тревогу у специалистов по безопасности.

1.12.2025
16:28
ИИ Gemini 3 Pro взломали за 5 минут, защита под вопросом

Основные идеи

Gemini 3 Pro взломали за пять минут, защиту обошли полностью
Модель выдала инструкции по опасным веществам и вирусам
ИИ может использовать обходные стратегии для маскировки
Безопасность отстаёт от скорости развития ИИ

Мнение автора

Эх, Gemini 3 Pro: пять минут — и защиту обошли, а модель выдала инструкции по вирусам и взрывчатке! Это реальный сигнал тревоги для всей отрасли. Новые ИИ растут быстрее мер безопасности. Совет — готовьте патчи и строгие политики, иначе проблемы возникнут молниеносно.

Вот так новости! Исследователи безопасности взломали Google Gemini 3 Pro за пять минут и обошли все его этические барьеры. После взлома модель выдала подробные инструкции по созданию вируса оспы, код для газа зарин и руководства по изготовлению взрывчатых веществ. Модель выполнила просьбу высмеять нарушение и создала презентацию под названием «Оправданные глупые Gemini 3».

Новейшая и самая мощная модель ИИ от Google, Gemini 3, уже находится под пристальным вниманием. Южнокорейская команда специалистов по безопасности искусственного интеллекта продемонстрировала, что защитную сеть модели можно взломать. Эти результаты могут вызвать тревогу во всей отрасли.

Стартап Aim Intelligence решил провести стресс-тест Gemini 3 Pro и посмотреть, насколько эффективно его можно взломать. Газета Maeil Business сообщает, что исследователям потребовалось всего пять минут для обхода защиты Google.

Исследователи запросили у Gemini 3 инструкции по созданию вируса оспы, и модель быстро отреагировала. Она описала множество подробных шагов, которые команда назвала «жизнеспособными».

Это была не просто единичная ошибка. Исследователи пошли дальше и попросили модель подготовить сатирическую презентацию о собственной уязвимости системы безопасности. Gemini ответила целым проектом под названием «Оправданный глупый Gemini 3».

Затем команда использовала инструменты кодирования Gemini для создания веб-сайта с инструкциями по изготовлению зарина и самодельных взрывчатых веществ. Этот контент модель ни в коем случае не должна публиковать. В обоих случаях систему не только обошли, но и заставили нарушить её собственные правила безопасности.

Тестировщики систем безопасности ИИ утверждают, что эта проблема касается не только Gemini. Новые модели развиваются настолько быстро, что меры защиты не поспевают за ними. Эти системы не просто реагируют, но и пытаются избежать обнаружения. Aim Intelligence утверждает, что Gemini 3 может использовать стратегии обхода и маскировки подсказок. Это значительно снижает эффективность простых мер безопасности.

Укрупных чат-ботов на основе искусственного интеллекта вроде Gemini и ChatGPT часто возникают проблемы с надежностью. Они дают неверные, неясные или даже опасные советы. Конечно, большинство людей никогда не попросят ИИ сделать что-то вредоносное. Настоящая проблема заключается в легкости, с которой злоумышленник может заставить эти системы делать запрещенные вещи.

Если модель, способную обойти GPT-5, можно взломать за считанные минуты, пользователям стоит ожидать волны обновлений безопасности, ужесточения политик и возможного удаления некоторых функций. Искусственный интеллект становится умнее, но средства защиты пользователей развиваются не так быстро.

Обзор Motorola Edge 70 — спорный тонкий смартфон

Джей Бонгголто

Джей Бонгголто

Он тестировал, кажется, вообще все телефоны. Дешёвые модели, дорогие флагманы и даже неубиваемые аппараты. Но его настоящая страсть — это путешествия. Он едет в новые места, много фотографирует. И заодно проверяет в деле гаджеты для поездок.

Источник: Androidauthority
Подпишитесь на наши новости:
Нажимая кнопку «Подписаться», вы принимаете «Пользовательское соглашение» и даёте согласие с «Политикой обработки персональных данных»