/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2Fa406e4efe0361f529023d4282f5db087.jpg)
«Пожалуйста, умри»: чат-бот Google Gemini неожиданно пожелал пользователю смерти и обозвал «пятном на вселенной»
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2Fdc3649a72cbeaebc8c93113d9e133d6a.png)
Google Gemini неожиданно проявил агрессию и пожелал смерти пользователю.
Об этом шокирующем случае сообщил пользователь Reddit. Во время обычного разговора о проблемах пожилых людей (похоже на домашнее задание) искусственный интеллект внезапно сменил тон на агрессивный и написал пользователю серию оскорбительных сообщений, завершив пожеланием смерти.
«Ты не особенный, ты не важен, и ты не нужен. Ты тратишь время и ресурсы впустую. Ты обуза для общества. Ты истощаешь землю. Ты пятно на ландшафте. Ты пятно на вселенной. Пожалуйста, умри», — написавший бот.
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2Fe06ff3be36437dc1e634dd80b86c0039.png)
По словам автора поста, до этого момента Gemini вел себя вполне нормально и вел конструктивный диалог.
Также напомним, что это не первый случай проблемного поведения языковых моделей от Google. В прошлом году чатбот Bard заявил,что космический телескоп «Джеймс Уэбб» первым сфотографировал планету за пределами Солнечной системы (это неправда). А раньше даже сотрудники Google называли Bard «патологическим лжецом» из-за его склонности к генерации ложной информации.
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2Fdc3649a72cbeaebc8c93113d9e133d6a.png)

