Iz Uneska navode da bi istorijsko tumačenje Holokausta moglo da bude izobličeno i da dovede do porasta antisemitizma ako se etički principi na kojima će počivati korištenje vještačke inteligencije ne sprovedu na međunarodnom nivou.
– Generativna vještačka inteligencija, poput čatbota zasniva se podacima sa interneta, odnosno sadržaju koji može odvesti na krivi trag i u kojem je prisutna ljudska pristranost – dodaju iz Uneska.
To bi, kako se navodi, moglo dovesti do pogrešnog navođenja informacija o određenim događajima i pojačavanja predrasuda.
– Zbog manjka nadgledanja i moderacije AI programera, alati generativnog AI-ja mogli bi da se treniraju na osnovu podataka sa internet stranica koje negiraju Holokaust – navodi se u izvještaju.
Iz Uneska ističu da AI omogućava da maliciozni akteri falsifikuju sadržaje poput svjedočanstava i istorijskih dokumenata o Holokaustu.
– Lažne fotografije i audiosadržaj koji stvori generativni AI posebno su uvjerljivi mladim ljudima koji se sa takvim sadržajem mogu susresti na platformama društvenih mreža – ukazuju iz Uneska.
Generativni AI modeli, kako se dodaje, imaju i sklonost izmišljanju događaja i istorijskih fenomena ako nemaju dovoljan pristup podacima.
– Ako dopustimo da se razvodne stravične činjenice o Holokaustu, da se izobliče ili falsifikuju putem neodgovornog korištenja AI-ja, riskiramo eksplozivno širenje antisemitizma i postupno smanjenje našeg razumijevanja uzroka i posljedica tih zvjerstava – rekao je generalni direktor Uneska Odri Azule.
Ona je navela da je primjena Uneskovih preporuka po pitanju etičnosti vještačke inteligencije hitno potrebna kako bi mlađe generacije odrasle sa činjenicama, a ne lažima.
Najnovije vijesti Srpskainfo i na Viberu