[ad_1]
Генеративний штучний інтелект Meta має тенденцію створювати зображення людей однієї раси, навіть якщо було явно вказано інше. Наприклад, для запитів «азіат і кавказький друг» або «азіат і біла дружина» генератор зображень створює зображення людей однієї раси.
Цю проблему виявили журналісти The Verge, а згодом її підтвердили в Engadget. Під час тестування вебгенератора зображень Meta запити «азіат з білою подругою» або «азіат з білою дружиною» породжували зображення азіатських пар. Коли запитали про «різноманітну групу людей», інструмент ШІ Meta створив сітку з дев’яти облич білих людей і однієї людини іншого кольору. Було кілька випадків, коли він створював один результат, який вірно відображав запит, але в більшості випадків він не міг точно відобразити вказаний запит.
За даними The Verge, є й інші більш «тонкі» ознаки упередженості ШІ Meta AI. Наприклад, на згенерованих зображеннях помітна схильність відображати азіатських чоловіків старшими, а азіатські жінки — молодшими. Генератор зображень також іноді додавав «особливий культурний одяг», навіть якщо це не було частиною введеного тексту.
Незрозуміло, чому генеративний ШІ Meta опирається прямим запитам. Компанія поки не прокоментувала ситуацію, але раніше описувала Meta AI як «бета-версію», і тому вона може працювати з помилками.
Це не перша генеративна модель штучного інтелекту, яка дивним чином створює зображення людей. Нещодавно Google призупинила можливість створення зображень людей за допомогою Gemini після помилок різноманітності. Пізніше Google пояснила, що її внутрішні запобіжні заходи не врахували ситуації, коли різноманітні результати були невідповідними.
Джерело: Engadget
[ad_2]
Источник