Megjithëse performanca e tij është mbresëlënëse dhe u jep shumë njerëzve iluzionin e njëfarë aftësie për të menduar, vendimet racionale nuk janë pika e fortë e ChatGPT dhe sistemeve të tjera gjuhësore të bazuara në Inteligjencën Artificiale (AI).
Këtë e demonstron hulumtimi i Universitetit të Kalifornisë Jugore të botuar në revistën Royal Society Open Science: përballë një zgjedhjeje, bazuar në hedhjen e një monedhe, mes fitimit të një diamanti dhe humbjes së një makine, ChatGPT nuk është në gjendje të kuptojë se cila është më e favorshme dhe zgjedh në mënyrë krejtësisht të rastësishme.
ChatGPT mund të jetë në gjendje të gjenerojë biografi, poezi ose imazhe sipas kërkesës, por funksionimi i tij bazohet në informacionin tashmë ekzistues: ai është në gjendje të ‘mësojë’ dhe të ripërpunojë sasi të mëdha të dhënash dhe ofron një përgjigje që është thjesht ajo që konsiderohet më së shumti e mundshme dhe statistikisht adekuate.
“Pavarësisht aftësive të tyre, modelet gjuhësore si ChatGPT nuk mendojnë vërtet,” thonë dy autorët e studimit, Zhisheng Tang dhe Mayank Kejriwal: “ata priren të bëjnë gabime elementare dhe madje t’i shpikin gjërat.” Megjithatë, falë përdorimit shumë të rrjedhshëm të gjuhës, ata mashtrojnë përdoruesin.
Dy studiuesit theksuan kufijtë e sistemit të zhvilluar nga OpenAI duke propozuar zgjedhje të ngjashme me bastet, bazuar në hedhjen e një monedhe ose në letra dhe zare: megjithëse ChatGPT është trajnuar për të marrë “vendime relativisht racionale”, performanca e tij gjatë këtij eksperimenti ishte jo e mjaftueshme. “Ideja se modelit mund të mësohen parimet e përgjithshme të vendimmarrjes racionale mbetet e pazgjidhur”, komentojnë autorët e studimit: “Vendimmarrja mbetet një problem jo i parëndësishëm edhe për sistemet gjuhësore shumë më të mëdha dhe më të avancuara”.