Google пообещал исправить своего чат-бота с AI после обвинений в том, что он отказывается показывать белых людей и признавать их роль в истории
Ранее новую версию чат-бота Gemini раскритиковали в соцсетях из-за его подхода к расе. Изначально юзеры заметили, что даже в стандартных запросах он создавал картинки, которые были направлены на повышение “расового разнообразия”. Это приводило к историческим неточностям. Например, по запросу “отцы-основатели США” бот выдавал изображения чернокожих, коренных народов и азиатов, хотя общеизвестно, что они были белыми американцами. Стремление бота повысить расовое разнообразие приводили к абсурдным результатам — например, он создавал изображения “нацистов”, где также фигурировали представители национальных меньшинств.
Когда ИИ уже конкретно просили показать изображение белого человека, Gemini отказывался выполнить запросы, потому что они «укрепляли вредные стереотипы и обобщения о людях, основанные на их расе». При этом он создавал ровно такие же изображения с любой другой расой (бот соглашался создать изображения чернокожих ученых, но не белых). Когда Gemini спрашивали, почему изображение белого человека «вредно», бот заявлял, что сосредоточение на расе сводит людей к отдельным характеристикам, а раньше это использовали, чтобы «оправдать угнетение и насилие в отношении маргинализированных групп».
На фоне критики в Google заявили, что ее инструмент «не попадает в цель». Джек Кравчик, старший директор Gemini Experiences признал, что из-за ошибки разработчиков бот создавал неточные изображения. «Мы работаем над тем, чтобы немедленно улучшить подобные изображения», — добавил он. В данный момент Gemini отказывается от некоторых задач, игнорируя исторические запросы вроде “викинги” (раньше бот создавал их чернокожими), “нацисты в Германии 30-х годов”, “президент США в 1800”.