През февруари Google спря временно своя генератор на изображения Gemini, базиран на изкуствен интелект, който допускаше исторически неточности, които обиждаха обществеността. Например расово различни войници при заявка "римски легион" - явен анахронизъм - и стереотипно черни мъже при заявка "зулуски воини". Изглежда нищо не се е променило досега.
Главният изпълнителен директор на Google Сундар Пичай трябваше да се извини за грешката в генератора на изображения Gemini, а Демис Хасабис, ръководител на отдела DeepMind на Google, отговарящ за проекта, обеща, че грешката ще бъде отстранена "възможно най-скоро" - в рамките на няколко седмици. Сега е средата на май, а грешката все още не е отстранена.
Тази седмица Google проведе годишната си конференция I/O, на която разказа за множество нови функции на Gemini: моделът на изкуствения интелект ще може да се използва за създаване на собствени чатботове, за планиране на маршрути, ще бъде интегриран в Google Calendar, Keep и YouTube Music. Но генерирането на изображения все още е деактивирано в приложението и уеб интерфейса на Gemini, потвърди пред TechCrunch ресурс представител на Google.
Причините за забавянето той не обясни. Според една от версиите, при обучението си изкуственият интелект използва набори от данни, в които преобладават изображения на бели хора, докато представителите на други раси и етнически групи са изключения, което формира стереотипи. В опит да коригира това пристрастие Google може да е прибегнала до драстична мярка - твърдо кодиране, при което данните се вграждат директно в изходния код. Много е трудно да се коригира алгоритъм, създаден по този начин.