Inteligență, non-inteligență
Unul dintre subiectele intens mediatizate în ultimele luni a fost Chat GPT. Pe scurt, idea polemicilor e că, nu peste mult timp, Inteligența Artificială (IA) va face de toate: va munci în locul nostru, va face politică, se va implica în deciziile de conducere ale firmelor, țărilor ș.a.m.d… Ce mai, IA va lua locul oamenilor în multe domenii. Iar Chat GPT nu a fost decât o unealtă care să ne arate de ce este în stare respective inteligență.
Numai că există o problemă… Inteligența Artificială nu este o inteligență propriu-zisă, ci doar o sumă de comutatoare care, cu ajutorul unor algoritmi programați de om, alege un răspuns. Da, viteza la care alege răspunsul e foarte mare. Dar IA doar alege pe baza unui program creat de om. De aceea, orice IA, deci și Chat GPT, nu înțelege cuvintele pe care le folosește. Deloc… Și mai simplu spus, nu face decât să lege cuvinte în urma unui calcul statistic dat de un algoritm care face textul coerent, dar fără să înțeleagă textul. Vorbește de mere, dar nu știe cum arată un măr.
Poate să-l recunoască din baza de date proprie, atât. Cu alte cuvinte, nu are nimic în comun cu inteligența umană. Inteligență, care culmea, nici nu prea are o definiție coerentă în lumea științifică. Și asta din simplul motiv că știința materialistă nu poate înțelege decât ce vede. Restul e mister… Iar cei care proslăvesc IA nu cred în om, în umanitate. Nu cred deloc în ei înșiși. Sunt precum niște copii care se minunează de orice jucărie. Dar, în același timp, sunt foarte intransigenți când vine vorba despre interesul lor sau despre modul lor în care văd lumea. De aceea oamenii din Occident nici măcar nu mai sunt considerați oameni, ci „consumatori“, „clienți“, „pacienți“, orice numai oameni nu. Și ne mai mirăm că s-a ajuns unde s-a ajuns în momentul de față? Față în față cu exitincția?
Așadar, ChatGpt e doar o iluzie. Inteligența Artificială e doar un instrument care poate fi util în mâinile oamenilor inteligenți… Numai că, după cum lesne se poate observa, în ultimii ani aceștia s-au cam ascuns. Știu ei de ce…
Și totuși, de unde nebunia cu Chat GPT? Istoria ne arată că omul mediocru întotdeauna a avut tendința să antropomorfizeze obiectele sau fenomenele, adică să le acorde calități umane. Iar Chat GPT-ul este un adevărat „fenomen“, nu? Până la urmă, lucrurile sunt simple… Când inteligența naturală se ascunde, inteligența artificială iese la lumină. Atât.
Ar trebui să ne aducem aminte de un lucru. Acum 11 ani se spunea că, până în 2017, mașinile conduse de IA vor fi dominante. Azi, în 2023, sunt țări care vor să interzică mașinile conduse de IA. Pentru simplu motiv că tehnologia s-a dovedit a fi jalnică pe șosele. Adică, tocmai atunci când IA trebuie să ia decizii complexe în timp real o cam dă în bară.
De unde a început totul? Potrivit unui articol publicat în 1996 pe byte.ro, pe la mijlocul anilor ‘60, Joseph Weizenbaum a scris un program faimos pe care l-a denumit ELIZA. Scopul declarat al acestui program era imitarea comportării unui psihoterapeut. Altfel spus, el trebuia să răspundă lamentațiilor „tastate“ ale pacienților printr-o serie de întrebări care nu erau altceva decât ecoul cuvintelor proprii – multe dintre întrebări încercând să forțeze nota pentru a asigura continuarea conversației. Cele mai simple „șmecherii sintactice“ au convins mulți oameni, care au interacționat cu ELIZA, crezând că programul înțelege ceea ce spun ei și cunoaște necazurile exprimate.
Atunci când se exagerează în aprecierea posibilității calculatoarelor de a modela lumea reală avem de-a face cu ceea ce se numește „efectul ELIZA“. Acest efect poate fi definit prin susceptibilitatea oamenilor în ceea ce privește înțelegerea de către calculator a unor șiruri de simboluri. De multe ori se pot auzi afirmații de genul: calculatoarele scriu nuvele, calculatoarele înțeleg cutare sau cutare fenomen, calculatoarele judecă abstract, calculatoarele fac descoperiri științifice. De fapt, toate aceste așa-zise descoperiri, creații sau analogii realizate de către calculator nu reprezintă decât o simplă prelucrare a unei scurte liste de aserțiuni ca: lichid (apă), mai mare, greu (adult), mai mic (nou-născut)) și așa mai departe. În spatele acestor aserțiuni nu există nicio altă reprezentare. Calculatorul nu are o reprezentare a ceea ce înseamnă un „lichid“ sau a ceea ce înseamnă „mai mare“.
Practic, pentru a ne simți confortabil atunci când afirmăm că un calculator poate face o analogie între curgerea apei și transferul căldurii între două metale aflate în contact ar trebui ca sistemul să știe că: apa este un lichid inodor și incolor care uneori se transformă într-o mulțime de picături mici, apa este afectată de gravitație, luând forma vasului în care se află, poate acumula căldură, lemnul plutește pe apă și multe altele. Iar IA nu face asta. IA nu simte, așa cum o fac oamenii… Să mai aducem și ideea de suflet în discuție? Sincer, nu cred că merită.
Bogdan PANȚURU