Debata je pokrenuta nakon što je X korisnik @notengopris podelio snimak ekrana koji pokazuje da su od petnaest rezultata pretrage za „beba paun“, samo četiri slike bile stvarne, dok su ostale generisane veštačkom inteligencijom.
Kada je PetaPixel tražio „beba paun“, Google je pružio nekoliko slika veštačke inteligencije iako je ironično da su neki Snopesovi članci koji razotkrivaju slike takođe bili na pretrazi.
Vremenska linija ovih slika je zapravo prilično fascinantna: neko je napravio video snimak bebe pauna i jasno ga označio kao AI. Ali onda drugi korisnik društvenih medija uzima video i postavlja ga kao da je stvaran, zavaravajući neke ljude. Slika se pojavljuje na Google pretrazi slika pod terminom „beba paun“
Creative Bloq izveštava da su korisnici izražavali zaprepašćenje zbog toga kako se „slop“ generisan od veštačke inteligencije infiltrirao na web stranice koje su prethodno koristili za inspiraciju.
Jedan student grafičkog dizajna žalio se na sve veće poteškoće u pronalaženju kvalitetnih referentnih slika, dok su drugi kritikovali tehnologiju kao neto negativan razvoj. Za mnoge umetnike i fotografe, Google služi kao ključni izvor referentnog materijala, a nemogućnost razlikovanja stvarnih slika od onih koje generiše veštačka inteligencija podriva kreativni proces.
Ovo nije prvi put da je PetaPixel izvestio o AI slikama koje utiču na Google pretragu slika, prošle godine je bizarno zamišljeni selfi Tenk Man sa trga Tiananmen popeo na vrh Google-a, kao i rezultati za pevača Izraela Kamakavivoʻolea.
Ono što svako može da uradi u vezi sa ovim problemom ostaje misterija, detektori AI slika su spektakularno nedovoljni. Trenutna situacija je sumorna sa milionima ljudi koji su prevareni na mreži lažnim slikama.
Ovo pitanje je nedavno istaknuto kada su, nakon uragana Helene, slike generisane veštačkom inteligencijom koje navodno pokazuju žrtve postale viralne.
Potencijalni uticaj koji ovo ima je da ljudi dovode u pitanje sve vrste medija i osećaju izdaje nakon što su naseli na lažnu sliku.