OpenAI viis lõpule oma kasumit taotleva haru vastuolulise ümberkorraldamise avalik-õiguslikuks korporatsiooniks: see on viimane tuuleiil keeristormis, mis on kaasa toonud sadu miljardeid dollareid ülemaailmseid investeeringuid tehisintellekti (AI) tööriistadesse. Kuid isegi kui tehisintellekti ettevõte – mis on asutatud mittetulundusühinguna ja mille väärtus on nüüd 500 miljardit dollarit – on oma kauaoodatud ümberkorraldamise lõpetanud, on selle põhipakkumisega seotud painav probleem endiselt lahendamata: hallutsinatsioonid.

Suured keelemudelid (LLM-id), näiteks need, mis on OpenAI populaarse ChatGPT platvormi aluseks, on altid enesekindlalt faktiliselt valesid väiteid esitama. Neid vigu omistatakse sageli halbadele sisendandmetele, kuid eelmisel kuul avaldatud eeltrükis tõestab OpenAI ja Georgia Tehnoloogiainstituudi meeskond, et isegi veatute treeningandmetega ei saa LLM-id kunagi kõiketeadvad olla – osaliselt seetõttu, et mõned küsimused on lihtsalt loomupäraselt vastuseta.

Teadlaste sõnul võib peamine probleem peituda selles, kuidas LLM-e treenitakse. Nad õpivad bluffima, sest nende sooritust hinnatakse standardiseeritud võrdlusaluste abil, mis premeerivad enesekindlaid oletusi ja karistavad ausat ebakindlust. Vastuseks kutsub meeskond üles võrdlusanalüüsi ümber hindama, et täpsus ja eneseteadlikkus loeksid sama palju kui enesekindlus. Kuigi mõned eksperdid peavad eeltrüki tehniliselt veenvaks, on reaktsioonid selle pakutud lahendusele erinevad. Mõned isegi kahtlevad, kui kaugele OpenAI läheb omaenda ravimi võtmisega, et treenida oma mudeleid seadma esikohale tõesuse kaasatuse ees.

Lisateave: https://www.science.org/content/article/ai-hallucinates-because-it-s-trained-fake-answers-it-doesn-t-know