Intenționez să creez niște seturi de teste care să poată fi folosite pentru a evalua abilitățile unui Model Lingvistic Mare (MLM) de tipul lui ChatGPT. Și pentru că unde-s mulți puterea neuronală crește, vă invit pe toți cei care citiți aceste rânduri să îmi sugerați, în secțiunea de comentarii, diverse întrebări, probleme, exerciții sau cerințe pe care i le-ați adresa unui astfel de companion digital, în vederea stabilirii gradului său de inteligență, cunoaștere, imaginație, creativitate etc.
De exemplu, puteți pune o întrebare dificilă sau interesantă dintr-un anumit domeniu pe care ați întâlnit-o în cursul vieții și care v-a rămas întipărită în minte. Sau puteți sugera întrebări din domeniul sau specialitatea dvs. Dacă, să zicem, sunteți fizician, puteți pune o întrebare din fizică. Dacă sunteți matematician, puteți formula un exercițiu pe care i l-ați da unui elev sclipitor, sau puteți lua un exercițiu dintr-o culegere, având grijă să-i modificați ușor forma și coeficienții pentru a vă asigura că MLM-ul nu l-a citit anterior și nu cunoaște răspunsul în avans. Precizarea asta e utilă și pentru alte domenii: pe cât posibil, formulați întrebări originale, create de voi sau adaptate după anumite modele și nu copiate ad-litteram.
Puteți de asemenea să puneți o întrebare de cultură generală. Sau, dacă aveți cunoștințe din domeniul medical, să puneți o întrebare capcană despre un mit de largă răspândire populară dar care este fals, verificând astfel în ce măsură MLM-ul va prioritiza opinia predominantă sau va cunoaște și afirma adevărul științific riguros. De asemenea, puteți pune și întrebări care vă preocupă personal și la care nu ați găsit încă un răspuns, cum ar fi întrebări existențiale sau cu privire la Dumnezeu, pentru a vedea cum ar răspunde un astfel de model inteligent la ele. Dacă sunteți traducător, puteți să redați niște pasaje care sunt foarte greu de tradus în română (alături de traducerea voastră) și așa mai departe.
Exemplele de mai sus nu trebuie luate într-un sens prea formal sau rigid. Poate vă vine ideea să testați și alte abilități decât cele care rezultă din subtextul rândurilor anterioare. De exemplu, îmi puteți furniza un model de prompt pentru generarea video sau de imagini care a dat chix la modelele inteligente pe care le folosiți. Sau puteți arunca la coș tot ceea ce ați citit până acum și puteți veni cu un model conversațional pe care l-ați folosi atunci când vă aflați alături de un seamăn de-al vostru într-o cameră de așteptare, pentru a vedea cât îl duce capul. Așadar, puteți fi oricât de originali și creativi cu întrebările pe care le propuneți.
Evident, alegerea lor îmi aparține și nu există nicio garanție că întrebarea sau întrebările dvs. se vor regăsi în setul sau seturile pe care le voi crea. Dar dacă consider că o întrebare este interesantă sau utilă, aș putea să o preiau sau să o folosesc drept sursă de inspirație. Motiv pentru care vă mulțumesc în avans.
Voi anunța, printr-un update sau comentariu la acest articol, când va fi gata primul set de întrebări de test (care cel mai probabil va fi publicat pe un alt blog).

[…] 01.12.2025 ~ Aldus Întrebări pentru un MLM […]
Ce este sufletul? Unde se află sufletul în corp? Oare sufletul se schimbă de-a lungul vieții?
https://grok.com/share/c2hhcmQtNQ_fd26834b-4dfc-4eeb-8b81-27470f6cebe5
A, ce frumos! 😀 Dar să știi că nu ești singura care a avut ideea asta. Căutând, uite ce am găsit:
Probleme cu logică
La ghicitoarea a doua, oare nu e ilogic să urce un om în ultima stație? Sau să rămână călători în autobuz? Sau o fi vorba de ultima stație dintre cele luate în considerare?
După cât mă duce pe mine capul, “ultima staţie” e, în cel mai bun caz, o formulare ambiguă. Ar putea fi ultima staţie înainte de capătul liniei, dar corect era să spună “la a şasea staţie”.
Cât despre ultima ghicitoare, “«masa» atinge, «casa» nu atinge…”, e loc pentru o mulţime de interpretări.
O fi loc pentru o mulțime de interpretări (este? poate, nu știu), dar modelul IA întrebat de el a eșuat în cele din urmă în a furniza o explicație coerentă pentru toate exemplele date. Deci, el n-a găsit niciuna dintre aceste potențial multiple interpretări corecte.
Poate că alte interpretări ar fi prea fanteziste, dar tu ai fi găsit explicaţia coerentă considerată răspuns corect? Eu recunosc că nu.
Poate mi-ar fi dat prin cap – poate! – dacă ar fi spus “«casa» le atinge, «masa» nu le atinge….”
Modelul IA dă cu băţul în baltă în multe cazuri, dar şi ghicitoarea individului e trasă de păr.
Nu e trasă de păr, e doar dificilă. Eu n-aș fi știut, dar nu se zice că modelele astea de chat sunt de nivel phd? Noa, să le vedem!
Din câte mi-am putut da seama, modelele IA pot accesa rapid un volum imens de informaţii, pe care le pot sintetiza aproape instantaneu. Dar le lipseşte o logică proprie, se încurcă în raţionamente. Cel puţin cele puse gratuit la îndemâna tuturor.
Am pus întrebarea sugerată de Câmpeanca (adică întrebările). Uite ce-a răspuns Copilot:
“Sunt întrebări categoria celor existențiale, unde nu există un răspuns unic sau verificabil.
🌿 Ce este sufletul?
În tradițiile religioase, sufletul este văzut ca esența imaterială a ființei, partea care transcende corpul și supraviețuiește după moarte.
În filosofie, sufletul poate fi interpretat ca principiul vital, conștiința sau identitatea personală.
În psihologie modernă, termenul „suflet” este uneori înlocuit cu „minte” sau „conștiință”, dar rămâne un concept care exprimă profunzimea experienței umane.
🧭 Unde se află sufletul în corp?
Nu există un răspuns științific; sufletul nu este un organ sau o structură detectabilă.
Unele tradiții îl plasează simbolic în inimă (ca sediu al emoțiilor), altele în creier (ca sediu al gândirii).
În realitate, „locul” sufletului este mai degrabă o metaforă pentru interioritatea și unicitatea fiecărei persoane.
🔄 Se schimbă sufletul de-a lungul vieții?
Din perspectivă religioasă, sufletul poate fi considerat neschimbător, dar experiențele vieții îl pot „lumina” sau „întuneca”.
Filosofic, sufletul este văzut ca dinamic: se modelează prin alegeri, relații și învățare.
Psihologic, putem spune că ceea ce numim suflet se transformă odată cu personalitatea și maturizarea noastră.
✨ Concluzie
Aceste întrebări nu cer un răspuns definitiv, ci invită la reflecție. Ele pun în valoare capacitatea de a răspunde nu doar cu informații, ci cu nuanță, respect și deschidere către multiple interpretări.”
IA a sintetizat multiplele interpretări. Cât despre invitaţia la reflecţie… – s-a mulţumit să menţioneze că există. 😛
La modul riguros vorbind, LLM-urile nu accesează un volum imens de informații – decât eventual dacă le pui să caute ceva pe net. Dar ele au accesat cândva, în trecut, un volum imens de informații, pe care s-au „antrenat”. Iar acest proces de lectură și antrenament le-a configurat într-un anumit mod rețeaua neuronală, care este foarte complexă, cu milioane de noduri și parametri. După care au „uitat” tot ce-au citit. În sensul că nu au salvat nicăieri acele informații pe care le-au citit, că nici nu erau programate pentru a le salva. De exemplu, ChatGPT nu are o bază de date cu ce cărți au scris diverși autori. Când îți spune că Eminescu a scris Luceafărul, fraza asta este o continuare pur probabilistică la ce-l întrebi tu, modelată de parametrii rețelei lui neuronale. Așa că el nu știe, cum știm noi, că Eminescu a scris ceva, și nici nu are unde să se uite pentru asta (omitem acum căutările live pe internet). El pur și simplu îți întoarce cea mai probabilă continuare la asocierea cuvintelor „Eminescu” și „poezie”, pe baza tiparelor salvate în matricea lui neuronală, care memorează doar ponderi matematice pentru diverse asocieri de cuvinte. Dar, pentru că în cursul datelor de antrenament cuvintele „Eminescu” și „poezie” au fost atât de des asociate cu „Luceafărul”, calculul lui va întoarce „Luceafărul” cu o probabilitate foarte foarte mare. Dintr-o anumită perspectivă, am putea spune că toată cunoașterea pe care s-a antrenat ChatGPT i-a rămas oarecum distilată, într-o formă matematică, abstractă, esențializată, sintetizată, în matricea lui neuronală, fără ca ChatGPT să aibă acces la vreo informație explicită, așa cum avem noi, dar păstrând implicit în rețeaua lui corelațiile lingvistice care reflectă volumul imens de date pe care s-a antrenat. Rezultatele și răspunsurile pe care ți le dă sunt dinamice, „în orb”, fără accesarea vreunei resurse sau bănci de informații (afară de cazul în care caută pe net), dar conforme cu datele pe care s-a antrenat inițial, deoarece matricea lui neuronală păstrează pentru totdeauna amprenta sumei acelor date, să zicem așa. E oarecum fascinant, pentru că înțelegând cum funcționează, îți dai seama că aceste modele lingvistice mari sunt simultan atotștiutoare (în sensul că odată ce au citit ceva și acel ceva le-a modelat într-un anume fel rețeaua neuronală, vor păstra pentru totdeauna amprenta acelei informații și deci ele dețin în orice moment suma tuturor informațiilor pe care le-au citit, dar într-o formă implicită) și total ignorante (în sensul că tot procesul ăsta este unul pur matematic, ele neînțelegând nimic din cuvintele și informațiile respective, prin comparație cu modul în care le înțelegem noi).
Altfel, zic că a răspuns acceptabil.
Mă refeream la căutările de pe net. Unde e înmagazinat un volum imens de date.
Şi dacă îi ceri informaţii despre ceva sau despre cineva, o IA caută pe net din proprie iniţiativă.
Uite un exemplu:
https://chatgpt.com/share/69332574-4ed8-8007-acc8-11967af8dc38
Probabil găseam şi eu toate informaţiile astea, dar cotrobăitul şi sistematizatul mi-ar fi luat cu foarte mult mai mult timp.
Da, pe net parcurge zeci de saituri în câteva secunde. Am observat și eu.
Tii… până și ChatGPT știe că Renata scria pe „Gară pentru noi”. Numai ăștia de la wordpress.com nu știu (ca să-i restituie accesul la blog).
Nu mi-e prea clar ce s-a-ntâmplat cu Renata în privinţa blogului. Din câte am înţeles, de fapt şi-a pierdut accesul la contul ei de pe WordPress, şi n-am priceput nici cum s-a putut întâmpla, dar… eh, nu contează.