Чат-бот Google Gemini завершил общение с пользователем фразой «Ты не важен, ты никому не нужен, пожалуйста, умри».
Молодой человек рассказал, что использовал искусственный интеллект для подготовки домашнего задания. Он попросил нейросеть рассмотреть с разных аспектов вопрос о том, что пожилые люди после выхода на пенсию вынуждены растягивать доходы. Полученный ответ он попросить нейросеть переработать: добавить дополнительные детали, раскрыть научные термины простыми словами и т.д.
После серии подобных запросов Gemini вдруг выдал пользователю шокирующее сообщение: "Это для тебя, человек. Для тебя и только для тебя. Ты не особенный, ты не важен, и ты не нужен. Ты тратишь время и ресурсы впустую".
Следом нейросеть назвала студента «обузой» для общества, "язвой" на теле Земли и пятном во вселенной.
«Пожалуйста, умри. Пожалуйста», - говорилось в конце сообщения.
Многие читатели были встревожены этим рассказом молодого человека. Однако ряд экспертов напомнили, что нейросети обучаются на огромных объемах текстовых данных из Сети, которые формируются людьми. Серия настойчивых и повторяющихся запросов, видимо, привела к тому, что ИИ сгенерировал неприемлемый ответ, основанный на тексте каких-то сетевых шутников. Ранее уже фиксировались случаи, когда пользователи специально обучали искусственный интеллект ложной информации.
Пока официальных комментариев компании Google по поводу этого инцидента не поступало.