Mânat de curiozitate și liniștit de auto-constatarea că nu sunt motan, am dat o căutare pe net după fraza „ce este un model lingvistic mare” (fără ghilimele). Primul rezultat din Google este un articol de pe shaip.com. Pe Bing acesta apare pe locul 4, după articole de pe sap.com, revistamagazin.ro și stirileprotv.ro (măcar sunt și două românești, chiar dacă pe prima poziție e tot un sait străin).
Să vedem puțin cum arată articolul de pe Shaip. Titlul paginii respective, așa cum apare el în Google/Bing și în fila (tabul) din browser, sună în felul următor: „Ce este Modelele lingvistice mari (LLM) – Top cazuri de utilizare, seturi de date, viitor.” Acest titlu e setat de tag-ul HTML <title>, după cum reiese din sursa paginii:
<!– Search Engine Optimization by Rank Math PRO – https://rankmath.com/ –>
<title>Ce este Modelele lingvistice mari (LLM) – Top cazuri de utilizare, seturi de date, viitor</title>
Observăm încă din acest titlu un prim dezacord între subiect și predicat: „modelele este”! Dezacordul însă dispare odată cu titlul atunci când ne uităm efectiv la textul articolului. Acesta poartă un nou titlu: „Modele lingvistice mari (LLM): Ghid complet în 2025”, cu subtitlul „Tot ce trebuie să știi despre LLM”. Altfel spus, titlul paginii HTML diferă de titlul articolului. Chestii de SEO, mnoa.
Să trecem mai departe și să cităm secțiunea introductivă:
Te-ai scărpinat vreodată în cap, uimit de modul în care Google sau Alexa păreau să te „prindă”? Sau te-ai trezit citind un eseu generat de computer care sună ciudat de uman? Nu esti singur. Este timpul să tragem cortina și să dezvăluim secretul: modele de limbaj mari sau LLM.
Ce sunt astea, te întrebi? Gândiți-vă la LLM-urile ca la vrăjitori ascunși. Ele ne alimentează chaturile digitale, ne înțeleg frazele încurcate și chiar scriu ca noi. Ne transformă viețile, făcând SF o realitate.
Acest ghid este despre toate lucrurile LLM. Vom explora ce pot face, ce nu pot face și unde sunt folosite. Vom examina modul în care ne afectează pe toți într-un limbaj simplu și simplu1Traducere pentru „plain and simple language”..
Deci, să începem călătoria noastră captivantă în LLM.
Dacă până acum puteam avea dubii, deja este clar: textul articolului este în primul rând generat de un program de IA și apoi tradus în română de un program de IA (posibil același). Deci nu doar tradus, ci și generat! De unde știu? Din modul în care e formulat, dincolo de traducere. Din neatenția la detalii, din lipsa unui stil clar, din mixarea informațiilor și aducerea lor la un numitor comun.
Și este foarte prost redactat și tradus. Mult sub nivelul MLM2Model Lingvistic Masiv; a nu se confunda cu Multi-Level Marketing.-urilor actuale. Un eseu care sună „ciudat de uman”? „Nu ești singur” în loc de „nu ești singurul”? Trecerea incoerentă de la singular și plural3O marcă a unei traduceri inconsistente, deoarece „you” din engleză se poate traduce atât prin „tu” cât și prin „dvs.”.: „Ce sunt acestea, te întrebi? Gândiți-vă la…”. Modelele inteligente „ne înțeleg frazele încurcate”. „Și chiar scriu ca noi” – adică tot încurcat? Fiecare frază și propoziție pare scrisă în ceea ce am putea numi limbajul de lemn al unei mașini neterminate. „Vom examina modul în care ne afectează pe toți într-un limbaj simplu și simplu.” Câtă elocvență!
N-o să vă plictisesc cu restul articolului, pentru că nici eu n-am de gând să-l citesc. Dar vă citez încă o secvență care mi-a sărit în ochi, din secțiunea imediat următoare, subliniind cu roșu ceva ce mi-a atras atenția:
Aceste modele pot îndeplini o gamă largă de sarcini, cum ar fi:
- Răspunzând la întrebări
- Rezumat text
- Traducerea limbilor
- Generarea de conținut
- Chiar și implicarea în conversații interactive cu utilizatorii
Pe măsură ce LLM-urile continuă să evolueze, ele dețin un potențial mare pentru îmbunătățirea și automatizarea diferitelor aplicații din industrii, de la servicii pentru clienți și crearea de conținut până la educație și cercetare.
MLM-urile au un potențial mare pentru crearea de conținut? Asta e grozav! Pentru că, după cum știm cu toții, conținutul este rege! Conținutul este ideea ce poate transforma lumea, metafora eminesciană ce poate înmuia cele mai împietrite inimi, simbolul perfecțiunii ascuns în poezia lui Nichita Stănescu, geniul shakespearian imun la curgerea timpului și așa mai departe. Întreaga literatură este subsumată ideii de conținut. Conținutul este aurul imaterial al intelectului. Iar acum, el se află la dispoziția noastră, a tuturor, la un clic distanță: bagi calculatorul în priză, intri pe un robot de chat și transformi curentul electric în aur curat!
Apropo: știați că dezideratul alchimiștilor de a transforma diverse elemente chimice4În special plumbul. Care, ca să vedeți chestie, are un număr atomic (Z=82) apropiat de al aurului (Z=79) și mai mare, proprietate care face transformarea lui în aur realistă conform fizicii moderne. Fapt care de altfel s-a și realizat. Bismutul și mercurul, menționate în continuare, au numerele atomice 83 și 80, în timp ce Uraniul 92. Aspecte pe care, evident, alchimiștii nu le cunoșteau, numerele atomice fiind descoperite de chimiștii secolului XX. în aur este acum o realitate? Pe bune și la propriu. Oamenii de știință au reușit deja să transforme bismutul, mercurul, plumbul și uraniul în aur, prin bombardare în acceleratoare de particule sau iradiere cu neutroni în reactoare nucleare. Și atunci, de ce nu avem aur la discreție? Pentru că nu rentează. Primo, costurile reacțiilor5Care sunt întotdeauna nucleare și nu chimice, neputând fi făcute în laboratorul unui institut chimic, că altfel am trăi într-o lume mult mai interesantă. sunt imense. Secundo, procesul este foarte sofisticat, implicând acceleratoare de particule, reactoare nucleare sau instalații de fuziune, și adeseori periculos. Tertio, aurul rezultat în experimente a fost de ordinul nanogramelor și a apărut în amestecuri de izotopi dintre care doar o parte corespundeau aurului stabil iar restul erau instabili sau radioactivi.6Partea bună e că nici nu poți face bombe cu ei.
Exact ca la Modelele Lingvistice Mari actuale. Care sunt energoface și produc texte ce au pe ici pe colo câte o sclipire de tinichea. Iar când zic „pe ici pe colo” nu mă refer la ce percepeți voi drept calitate sau inteligență, ci la ce sunt cu adevărat capabile să producă aceste modele de IA, comparativ cu potențialul uman. Și asta pentru niște costuri imense. Sam Altman, CEO-ul companiei OpenAI (care a creat și dezvoltă modelele ChatGPT, Sora și DALL-E), răspunde pe X că doar cuvintele „te rog” și „mulțumesc” pe care le adăugați în conversațiile cu acești roboți de chat generează costuri de zeci de milioane de dolari. Nu avem date exacte, dar estimările cu privire la consumul de curent electric pentru operarea lui ChatGPT merg de la sub 100.000 de dolari pe zi până la 6 milioane de dolari pe zi. Și vor crește, pentru că giganții IT își construiesc centrale nucleare care să le alimenteze modelele inteligente. Și, cu tot capitalul imens de imagine de care a beneficiat, ChatGPT rulează pe minus. Da, este o bulă. Dar despre asta, cu o altă ocazie.
Așa că da: este grozav că băgăm miliarde de dolari în niște modele care pot genera articole de presă de doi cenți bucata.
Am dat apoi o altă căutare pe Google, după următorul text: „google and ai generated content”. Iar robotul de IA de la Google mi-a răspuns (traduc):
Poziția Google cu privire la conținutului generat de IA este că folosirea Inteligenței Artificiale pentru a crea conținut nu este în mod inerent împotriva recomandărilor Google, dar utilizarea IA pentru a manipula clasamentul rezultatelor căutării sau pentru a crea conținut de calitate scăzută și neoriginal încalcă politicile legate de spam. Obiectivul Google rămâne acela de a răsplăti conținutul util și informativ, indiferent dacă a fost creat de oameni sau de IA.
Mai multe pe Google Search Central Blog, într-un articol din 2023, din care mă rezum la a cita că „Inteligența artificială poate ridica creativitatea și exprimarea la noi niveluri”7În original: „AI has the ability to power new levels of expression and creativity”.. Nu zău?
Personal aveam impresia că este în interesul lui Google să evite conținutul generat de IA. Pentru că modelele generative de text nu fac decât să regurgiteze conținutul original pe care s-au antrenat (deși poate că într-o asamblare diferită). Și pentru că dacă un robot de IA îți poate spune totul, fiind un fel de Google + Wikipedia + Reddit + Facebook + Quora + Stack Overflow + cărți pdf + ce mai vreți voi la pachet, ce nevoie mai are utilizatorul de Google? Aparent, m-am înșelat. Probabil că cei mai modești autori artificiali sunt mult peste prestația ziariștilor copy/paste care au crescut și s-au școlit pe internet. Dar chiar într-o asemenea măsură încât articolul menționat la început să fie primul în rezultatele căutării?
Făcând o proiecție în viitor, aparenta creștere imediată a calității la care speră Google atunci când permite și introduce în rezultatele căutării texte generate de IA, cum este acesta, va fi pe termen lung surclasată de un fenomen ce s-ar putea descrie plastic prin „diminuarea randamentelor”. Modelele de IA de anii trecuți s-au antrenat pe miliarde de cuvinte, fraze și texte scrise de către oameni. Și acum ele generează conținut, pe baza acelor date de antrenament. Conținut care începe să împânzească netul. Modelele de IA de astăzi se antrenează inclusiv pe acest conținut creat de către IA (potențial chiar de ele). Treptat, pe măsură ce modelele se vor baza tot mai mult pe conținut artificial, generat de ele însele, se va produce un fel de uniformizare a rezultatelor iar calitatea respectivelor modele va scădea ușor spre zero. Nu te poți ridica trăgându-te singur de păr în sus, asemenea Baronului Munchausen, la fel cum nu te poți auto-cizela și eleva pe cont propriu, fără să-ți angajezi un profesor sau să citești măcar o carte, căci asta ar însemna să violezi principiul al doilea al termodinamicii, care spune că orice schimbare tinde să crească entropia totală și deci, că dacă vrei să obții un sistem mai organizat și implicit cu un grad mai mic de entropie, cum ar fi un Model de IA mai inteligent, e necesar să pompezi de undeva din afară energie – adică, în cazul nostru, conținut original pe care să se antreneze. Dintr-un anumit punct de vedere, MLM-urile sunt niște epigoni. Care însă îi vor trage după ele și pe oamenii din care se inspiră, pentru că internauții vor accesa un internet poluat tot mai mult cu texte generate artificial.
Dar, până când aceste proiecții vor începe să prindă contur, probabil că una dintre cele mai ieftine, rapide și ușoare metode de a face bani pe termen scurt ar fi să-ți deschizi unul sau mai multe saituri pe care să le mufezi la gura unor modele inteligente. În caz că asta nu merge, încercați cu gura nevestei.
Note de subsol:
- 1Traducere pentru „plain and simple language”.
- 2Model Lingvistic Masiv; a nu se confunda cu Multi-Level Marketing.
- 3O marcă a unei traduceri inconsistente, deoarece „you” din engleză se poate traduce atât prin „tu” cât și prin „dvs.”.
- 4În special plumbul. Care, ca să vedeți chestie, are un număr atomic (Z=82) apropiat de al aurului (Z=79) și mai mare, proprietate care face transformarea lui în aur realistă conform fizicii moderne. Fapt care de altfel s-a și realizat. Bismutul și mercurul, menționate în continuare, au numerele atomice 83 și 80, în timp ce Uraniul 92. Aspecte pe care, evident, alchimiștii nu le cunoșteau, numerele atomice fiind descoperite de chimiștii secolului XX.
- 5Care sunt întotdeauna nucleare și nu chimice, neputând fi făcute în laboratorul unui institut chimic, că altfel am trăi într-o lume mult mai interesantă.
- 6Partea bună e că nici nu poți face bombe cu ei.
- 7În original: „AI has the ability to power new levels of expression and creativity”.

Entropie zero. Inteligență zero. Uite așa ne va fi învins inteligența artificială, nu ucigându-ne!
@Ludditus
Interesantă perspectivă :)) Învingerea prin prostie.
@Aldus
La nivel de text, sau “creare de conținut”, LLM-urile actuale mai au mult de învățat. Asta, poate, și din cauză că au ca “materie primă” multe articole de pe site-uri care nu se prea deosebesc de ceea ce s-a generat aici. Partea amuzantă pentru mine în această situație e că, în ritmul ăsta, astfel de texte ca cel de mai sus ajung sa fie exemple pentru învățarea altor LLM-uri, cum ai spus și tu. Să vezi atunci greșeli gramaticale și/sau de exprimare 😀
Pe de altă parte, există deja destule domenii unde AI-ul se comportă bine spre foarte bine. Spre exemplu, în programare, unde multe funcții și rutine pot fi generate cu ușurință de AI.
@Ludditus
Inteligență zero, entropie maximă. 🙂 Că sunt invers proporționale.
@Liviu
Și la generare de text se comportă uneori foarte bine. Depinde pe care și ce le întrebi. Dar nu au creativitate în sens propriu, ci doar mixează ce au citit. Și de asta dacă nu vor primi un aflux de texte noi (în sensul de originale, diferite de cele de până acum) pe care să se antreneze, nu vor mai putea să-și extragă combustibilul necesar evoluției. Și cum textele scrise de ele sunt neoriginale, adică doar mixări, dacă ajung să se antreneze pe ele, sunt condamnate la moarte.
Altfel, oricum sunt condamnate structural la condiția de epigoni, dar cel puțin poți să te folosești de ele uneori, că un epigon al lui Einstein e mai bun decât proful tău de fizică, să zic așa. 🙂 Numai că pe viitor, dacă o să ajungă niște epigoni ai epigonilor care sunt azi, și apoi epigoni ai epigonilor epigonilor etc…
[…] întrebat pe ChatGPT ce părere are despre acest articol apărut pe un blog și iată […]
@Aldus, fiindcă de ce îmbătrânesc de-aia devin mai curioasă, am făcut eu ceea ce i-ai sugerat Renatei.
Iată linkul către răspunsul lui ChatGPT (care la mine NU e setat să ţină minte discuţiile anterioare, deci nu e influenţat de nicio părere de-a mea): https://chatgpt.com/share/687374af-b388-8007-a952-bb507dd84e01
Vezi şi o altă discuţie cu ChatGPT, pentru care am folosit alt cont: https://chatgpt.com/share/6873955e-4208-8009-b181-9993378c4c7e
Eu cred că scrie ca să ajungă în Rai. (Nu, nu la televiziunea italiană.)
Am uitat să ironizez „merită citiți”.
Francezul e mai tălâmb și pare că ar avea un morcov în curul său digital.
Iată și iubirea mea, Claude.
@Vero
Mersi de linkuri și verificare. 🙂
@Ludditus
Mersi pentru linkuri.
În mod obișnuit, dacă-i spui ceva simplu, de multe ori MLM-ul are tendința să se limiteze la un scurt rezumat, pentru că asta vor majoritatea celor care îi cer să le analizeze un articol. 🙂 Ca să-l scoți din modul ăsta și să-l exploatezi la o capacitate mai mare, e bine să-i dai o cerință mai nuanțată, cum ar fi: „Comentează critic textul cutare, din perspectiva unui profesor de …” sau „Analizează și comentează detaliat acest text. Identifică-i structura și ideile principale, tipul de retorică, coerența internă, validitatea argumentelor, gradul de originalitate și accesibilitate, punctele tari și slabe etc”. Poți experimenta cu diverse prompturi. Sau poți să pornești de la ceva simplu (ex: „Ce părere ai de articolul cutare? Ce impresie îți face, ce observi interesant la el, cu ce ești de acord și cu ce nu?”) și apoi poți să-i pui întrebări despre diverse aspecte pe care le menționează și să îi ceri să le dezvolte și analizeze mai în detaliu.
@Aldus
Tocmai asta este, că eu nu folosesc niciodată un LLM pentru rezumarea unui articol! Am făcut-o o dată, când chiar aveam nevoie de o sinteză, nu de bărbi.
Dar în general, la întrebări simple, LLM-urile se comportă pe dos: de obicei toarnă cearșafuri de gargară în loc să fie la obiect, și trebuie să le spun explicit să fie mai succinte! De aceea prefer adesea Claude. Sau, atunci când nu am nevoie de ceva scurt, dar nici cu structura lui ChatGPT, uneori Grok găsește implicit un echilibru între exhaustivitate și verbozitate.
Dar nu vreau să emuleze perspectiva unui profesor, și nici pe aceea a unui școlar de clasa a opta. Vreau opinia lui, de robot tălâmb! (Claude are patru stiluri predefinite; așa ar trebui să aibă toți, nu să-i gâdil eu la puțulică.)
Ete, scula. Genul ăsta de prompt îmi dă greață. Dacă eu aș fi profesor și ar trebui să-i spun atâtea elevului sau studentului, mai mult de 7 nu ar lua. „Hai, Gogule, spune-mi ce crezi despre asta.” Doar așa îl văd dacă-i merge mintea sau dacă e un bou.
Dar, ce să vezi, un LLM nu este om.
Când îi prezint o argumentație de-a mea, nu știu cum se face, dar găsește singur și ce e bun (lauda aia de la început, mai ales la ChatGPT), dar nu ratează să-mi spună și unde mă înșel.
Dar ai dreptate: sintetizarea articolelor este, alături de generarea de eseuri, una din utilizările principale ale LLM-urilor de către giboni. Așa că trebuie „prompt engineering”, căci el are „defaults” idioate.
[…] alte cuvinte, cont nou, cu discuţie nouă, pe temă de-acum veche. Şi cu asta basta, pentru mine tărăşenia cu pricina e […]
[…] și un schimb de replici cu Ludditus, în comentariile unui aricol precedent. […]
@Ludditus
Elevul are un model de analiză pe text, pentru a mai asistat la astfel de analize la clasă. Dacă iei un elev care n-a auzit și n-a făcut niciodată analize pe text, nu va ști ce să facă. Deci, elevul va analiza conform modelului implicit pe care îl știe de la ore. ChatGPT are o mie de modele de analiză pe text – toate tipurile de analiză posibile. Dacă nu-i specifici ce analiză vrei, va alege un model – de obicei cel mai simplu, de tip rezumat, că așa vrea de obicei poporul, după cum zici și tu în final.
Exact. 🙂
Da. Dar uite chestie: când îi dau un prompt specializat, îmi face ce-i cer, dar atât. Când îi dau un prompt mai simplu și mai liber, uneori găsește chestii interesante la care nu m-am gândit. Așa că încă n-am o soluție definitivă. Cumva, ar trebui găsit un promot care să îi ceară o analiză critică detaliată, pe idei, dar în același timp să-i lase mai multă libertate decât dacă i-ai spune tu exact ce pași ce să urmeze.
Tocmai de-aia folosesc foarte rar ChatGPT, pentru că a ajuns să fie destinat maselor idioate.
Dar îl folosesc uneori ca să depanez câte o chestie în Linux, de pildă.
[…] de a fi murit, continuă să ne inunde la tot pasul. Și de asta încep să mă gândesc că poate Google are dreptate când acceptă materiale generate automat și că recurgerea la instrumente de inteligență artificială care să redacteze știrile de […]