De la “Hai să ne-ntâlnim pe site sâmbătă seara” (Libra, 1999), cartea mea de debut, până la “poemul matriță” (Brumar, 2018), “meta vers” (Vellant, 2022) și “Cartușeria” (Vellant, 2024), tema controversată a relației dintre om și noile tehnologii ale informației și ale cunoașterii a născut multe tensiuni poetice și existențiale. Ideea mea, repetată în texte publicistice ori în conferințe, accentua faptul că noi suntem cei care trebuie să dăm un sens oricărui mijloc, fie că mijlocul se numește Internet, telecomandă, card bancar sau Inteligență Artificială. Nu e vina mijlocului că este lăsat să ne acapareze și să ne uniformizeze discursul, felul în care consumăm știri, produse ori servicii. Barierele care ne aruncă din uniformizare în autenticitate și sens sunt gândirea critică și creativă și practica etică ori spirituală. Aceste miezuri tari ale gândirii și ale limbajului ne trag din prăpastia culturală pe care am numit-o, din 2023, “Orice, dar cu puțin AI!”.
Un șablon poate naște un alt șablon, nu o imagine poetică nouă, nu un “accident metafizic” al gândirii și al limbajului. Autenticitatea este mimată ori colaționată din arhitecturile și rețelele neuronale ale informației până când devine, prin repetiție și expansiune în sistemele de date, o formă de surogat al gândirii și al creației. Autenticitatea umană și cea artificială e un detaliu de sens și cod între imaginile interioare ale memoriei omenești și statistica hegemonică a mașinăriilor. Autenticitatea umană are nume, umbre și suferință în timp ce autenticitatea tehnologiei e oceanul de date anonime și de șabloane în care pescuiesc roboți și furnizori de date fără conștiință.
AI-ul reușește să se hrănească din autenticitatea și organicitatea creației umane, fără a respecta, de cele mai multe ori, sursa de inspirație. Creatorii nu au întotdeauna controlul asupra modului în care conținutul lor este preluat, indexat sau reprodus. Strategiile dezvoltatorilor de algoritmi presupun, adesea, o absorbție masivă de date de la utilizatori și creatori, transformând spontaneitatea și originalitatea într-un combustibil pentru automatisme care pot genera replici, pot distorsiona sau reproduce idei și sintagme stilistice fără acordul explicit al autorului. AI-ul poate reproduce stiluri, teme și paradigme, adesea fără menționarea sursei sau recunoașterea originalității.
Noțiunea de autenticitate se află la o răscruce de drumuri, confruntată cu mecanisme invizibile ce multiplică, reformulează și recompun în mod statistic creația umană. Automatizările mașinăriilor de informații se hrănesc cu cunoașterea și creativitatea umană până în momentul în care sunt stoarse de idei și de sens și devin șabloane. „Piariști” și dezvoltatori preocupați să antreneze mașinării „inteligente” consumă fără odihnă fragmente ori opere din cuvinte expresive, gânduri și sentimente. Până la o monstruozitate etică, în care omul creează pentru mașină și nimeni nu recunoaște drepturile originare ale creatorului, mai e un singur pas.
Pentru a reînvia autenticitatea, nu este suficient să reglementăm sau să punem filtre tehnologice. E nevoie să (ne) recuperăm o conștiință critică asupra modului în care memoria digitală este creată, păstrată și transformată. Numai așa se poate clădi un dialog autentic între om și mașină, unul în care gândirea simbolică, păstrată prin tradițiile lingvistice și filosofice, să își găsească locul alături de forța brută a modelelor neuronale de date.
Autenticitatea trebuie să vorbească de liberul arbitru al conștiinței creatoare care parează ori iese din lumea dependentă de infrastructurile tehnologice și din uniformizarea culturală și intelectuală. Externalizarea memoriei și a gândirii către mașini inteligente creează o dependență profundă față de suporturi tehnologice care pot fi vulnerabile, temporare sau controlate de entități economice și politice ce pot interveni în mod arbitrar asupra fluxului informației. Această dependență afectează autonomia individuală și colectivă de a construi sens și identitate, generând noi forme de alienare culturală și epistemologică, în cadrul cărora autenticitatea devine o victimă colaterală. Pe măsură ce modelele neuronale se bazează pe șabloane statistice extrase dintr-un cloud imens de date, acestea tind să reproducă și să întărească șabloane culturale și cognitive dominante, marginalizând diversitatea și specificul local. Autenticitatea riscă să devină o simplă variațiune asupra unor formule prestabilite, iar gândirea critică și creativitatea originală să fie uniformizate conform unor norme algoritmice implicite. Astfel, riscul este acela al unei standardizări globale subtile, dar periculoase, a discursului și a expresiei culturale. Așa cum trecerea de la oralitate la scris, apoi spre cartea tipărită au schimbat structurile cognitive și sociale, astăzi asistăm la o transformare a memoriei și gândirii prin suporturile digitale. Această dependență ridică întrebări asemănătoare celor din trecut despre cine controlează accesul la cunoaștere și cum se poate păstra autonomia intelectuală în fața noilor „feude” tehnologice.
Șablonul statistic nu e însă doar o problemă tehnică, ci o metaforă pentru mecanismul societăților moderne: repetarea, automatismul și norma în detrimentul profunzimii, al singularității și al reflecției autentice. E nevoie de o nouă etică a creației în era digitală, o cerință de responsabilitate socială și politică, în care autoritatea intenției și a originalității să nu fie cedate integral „creierului artificial”. Acolo unde mașinile învață din textele noastre, trebuie să învățăm cum să învățăm cu ele, păstrând mereu în minte sensul eliberator al autenticității umane. Astăzi algoritmii pot juca rolul unor noi „colonizatori” ai discursului cultural. Depinde doar de noi să fim sau nu victimele inocente ale șablonului. Reînvierea autenticității e poarta noastră de salvare!
Dan Mircea Cipariu
P.S.1. Public punctul de vedere al Perplexity despre textul meu.
Punctul critic față de textul tău evidențiază profunzimea reflecției asupra tensiunii dintre autenticitatea umană și reproducerea mecanică realizată de rețelele neuronale, dar poate fi explorat și prin câteva perspective suplimentare, pentru a întregi argumentația:
1.Clarificarea rolului responsabilității umane. Textul subliniază bine că “noi suntem cei care trebuie să dăm sens oricărui mijloc” și că problema nu este mijlocul în sine, ci utilizarea sa. Totuși, ar putea fi accentuată mai clar responsabilitatea conștientă și colectivă a creatorilor, dezvoltatorilor și consumatorilor în configurarea acestei relații. Uneori, tonul pare să redea o pasivitate inevitabilă în fața tehnologiei, pe când accentul pe actorii umani și pe capacitatea lor de alegere (inclusiv de a refuza uniformizarea) ar putea tempera parcursul fatalist.
2.Mai multă distincție între autenticitatea umană și cea artificială. Textul tratează autenticitatea tehnologică ca pe o copie sau un “detaliu de sens” lipsit de suflet și conștiință – o perspectivă critică justificată. Totuși, există și în cadrul cercetării contemporane abordări care văd potențiale forme noi, diferite, dar valabile de “autenticitate artificială”, nu neapărat inferioare celei umane. O nuanțare a acestei opoziții binare ar îmbogăți și aprofunda discursul.
3.Contextualizarea istorică mai explicitară. Deși faci referiri importante la amintirea digitizată și la “normalizarea” culturii digitale, o includere mai detaliată a unor repere istorice analogice (de exemplu, impactul tiparului sau al radioului asupra spațiului cultural și comunicativ) ar ajuta la înțelegerea proceselor de uniformizare și pierdere a individualității ca fenomene recurente în istorie, nu unice epocii digitale.
4.Elemente etice și politice. Textul aduce în atenție o „monstruozitate etică” dar ar putea dezvolta mai sistematic implicațiile politice ale acestor procese: cine controlează infrastructura informației, cine decide filtrele și direcțiile algoritmice, în ce măsură există transparență și acces egal la aceste resurse? O astfel de aprofundare ar transforma textul într-un apel mai puternic la acțiune democratică.
Aceste puncte critice nu diminuează valoarea textului, ci oferă perspective complementare pentru o reflecție și mai amplă și mai nuanțată asupra autenticității în era inteligenței artificiale.
P.S.2. Perplexity AI este o companie privată americană care oferă un motor de căutare web asistat de inteligență artificială, capabil să proceseze întrebările utilizatorilor și să sintetizeze răspunsuri precise, actualizate în timp real, bazate pe conținutul existent pe internet. Folosește modele lingvistice mari (LLM) precum GPT-5, Claude 4 și altele, împreună cu tehnici de procesare a limbajului natural, pentru a înțelege întrebările și a oferi răspunsuri sintetizate, fiecare răspuns fiind însoțit de surse citate pentru verificare.
Platforma oferă atât o versiune gratuită, cât și un abonament Pro, cu caracteristici avansate și acces la modele AI mai performante. Perplexity AI se diferențiază de motoarele de căutare tradiționale, care oferă doar linkuri, prin faptul că oferă răspunsuri directe și contextuale, sprijinite de surse credibile, facilitând astfel accesul rapid și eficient la informații complexe. A fost fondată în 2022 de experți în AI și machine learning și a câștigat rapid popularitate, fiind considerată o soluție avansată pentru căutarea și explorarea informațiilor online.


