Već radimo na rješavanju nedavnih problema sa Džemijevom funkcijom generisanja slika. Dok se problem ne riješi, pauziraćemo generisanje slika ljudi i uskoro ćemo objaviti poboljšanu verziju – saopštio je Gugl na Tviteru.
Korisnici Geminija ove nedjelje su na društvenim mrežama objavili snimke ekrana istorijskih scena gdje bi trebalo da budu prikazani bijelci, a umjesto toga su generisani ljudi različitih rasa.
Ovo je navelo kritičare da postave pitanja o tome da li kompanija pretjerano koriguje rizik od rasne pristrasnosti u svom modelu vještačke inteligencije, prenosi “AP”.
Prethodne studije su pokazale da AI generatori slika mogu da pojačaju rasne i rodne stereotipe, a bez filtera je veća vjerovatnoća da će prikazati muškarce svjetlije puti kada se od njih traži da generišu osobu u različitim kontekstima.
Gugl je u srijedu naveo da je “svjestan da Džemini nudi netačnosti u nekim prikazima generisanja istorijskih slika” i da “radi na tome da odmah poboljša ove vrste prikaza”.
Istraživač sa Univerziteta u Vašingtonu, Surodžit Goš, koji je proučavao pristrasnost u AI generatorima slika, rekao je da se slaže s odlukom Gugla da pauzira generisanje lica ljudi, ali je “u nedoumici oko toga kako su došli do ovog ishoda”.
Uprkos tvrdnjama o takozvanom “brisanju bijelaca”, što se sugeriše na društvenim medijim, Goš tvrdi da je njegovo istraživanje pokazalo suprotno i istakao je da će biti potrebno vrijeme da se stvori generator koji tačno predstavlja ljude.
Najnovije vijesti Srpskainfo i na Viberu