Testiranje oglasov v ChatGPT-ju ni čisto nedolžna stvar
OpenAI je začetek tedna odprl možnosti testiranja oglasov v aplikaciji ChatGPT. Oglasi v ChatGPT-ju morda ne bodo prišli jutri, a vprašanje ni več, ali bodo, temveč kaj to pomeni za način, kako ljudje razmišljamo, se učimo in sprejemamo odločitve.
Kaja Kovič
OpenAI zelo aktivno raziskuje možnosti vključevanja oglasov v ChatGPT, kljub prejšnjim namigom, da so idejo začasno postavili na stranski tir zaradi skrbi za kakovost odgovorov. To je postalo jasno, ko so odprli testno beta verzijo z različnimi oglaševalskimi orodji. Govora je o sponzoriranih vsebinah, ki lahko dobiijo prednostno obravnavo znotraj odgovorov ali pa so umeščene v ločen stranski del vmesnika. Za zdaj gre za koncepte, a že sama smer razmišljanja odpira precej vprašanj.
Kje bi oglasi sploh živeli?
Po razkritjih naj bi OpenAI testiral dve osnovni možnosti. Prva je razmeroma klasična: sponzorirane vsebine bi se prikazovale ob strani, ločeno od glavnega odgovora. Takšna umestitev je uporabnikom intuitivno razumljiva, saj oglasni prostor ostaja jasno ločen od vsebine, ki jo dojemajo kot informativno.
Druga možnost je bistveno bolj problematična: da bi model znotraj samega odgovora prioritetno izpostavljal plačane vsebine. V takem primeru se meja med nevtralno razlago in komercialnim vplivom zabriše. Odgovor deluje enotno, priporočilo pa kot nekaj, kar izhaja iz razumevanja vprašanja; ne iz poslovnega interesa.
Zakaj se tema oglasov vztrajno vrača?
Zgodba o oglasih v ChatGPT-ju se zadnje leto pojavlja v valovih. Po prvih namigih v beta različicah je sledilo obdobje zatišja, ko so v ospredje stopile izboljšave modela in konkurenčni pritiski, predvsem s strani Google in njegovega Geminija. A najnovejši prototipi kažejo, da ideja nikoli ni zares izginila. Za OpenAI je monetizacija neizogibna tema. Vprašanje pa je, kakšno ceno ima, ko se začne vgrajevati neposredno v sistem, ki ga ljudje vse bolj uporabljajo kot primarni vir znanja.
Ko monetizacija poseže v razmišljanje
Če bi šlo zgolj za še en oglasni format, bi bila razprava precej bolj banalna. A pogovorna umetna inteligenca ni le nov medij, postala je t.i. kognitivni vmesnik. Za milijone uporabnikov ChatGPT že danes nadomešča iskalnike, enciklopedije, knjige in celo znanstvene članke. Ne gre več za klepetalnik, temveč za referenčno plast, skozi katero filtrirajo razumevanje sveta. Ključna razlika je v načinu podajanja informacij. Iskalniki ponujajo sezname, Wikipedija vire, knjige strukturo. ChatGPT pa možnosti skrči v en sam tekoč narativ. Ko v tak narativ vstopi sponzorirana vsebina z »preferenčno obravnavo«, ta ne tekmuje z drugimi odgovori. Postane odgovor. To je povsem nova površina vpliva.
Zaupanje kot lastnost sistema, ne obljuba
OpenAI poudarja, da želi zaščititi zaupanje uporabnikov. A zaupanje v takih sistemih ni stvar izjave za javnost, temveč arhitekture. V trenutku, ko prihodki začnejo vplivati na rangiranje odgovorov, izbiro primerov, ton razlage ali celo na to, kaj je izpuščeno, sistem ne ščiti zaupanja, temveč kapital. Največje tveganje niso oglasi sami, temveč neviden vpliv na odgovore in poslednično na uporabike. Slednji ne morejo vedeti, kateri odgovori so bili potisnjeni v ozadje, katere alternative so bile omiljene ali izključene in ali je bila samozavest odgovora prilagojena poslovnim interesom.