Care este cel mai mare risc real odată cu apariția AI? ZDI a întrebat acest lucru chiar pe chatbot-urile AI. Răspunsuri absolut surprinzătoare (II)
O idee inedită a ZDI: să invităm la un „dialog” pe tema „Inteligența artificială, prezent și viitor” chiar trei „actori roboți” reprezentativi pentru domeniul AI: ChatGPT, Gemini3 și Microsoft365. Nu am cosmetizat răspunsurile primite și vă invităm, pe dumneavoastră, cititorii, să evaluați conținutul a ceea ce urmează!
Continuăm, „dialogul” inițiat în numărul anterior al Ziarului de Iași la care personajele în discuție sunt trei dintre cele mai cunoscute chatbot-uri:
-
Care este cel mai mare risc real al AI și care este un risc supraestimat?
ChatGPT: Risc real: utilizarea necritică, delegarea responsabilității și dependența cognitivă. Risc supraestimat: ideea că AI va „prelua controlul” în mod autonom. Problema nu este AI, ci modul în care oamenii o folosesc.
GEMINI: Poluarea informațională și manipularea. Capacitatea de a genera conținut fals (fake news, deepfakes) la scară industrială, erodând încrederea în realitate și în instituții. De asemenea, riscul ca oamenii să-și atrofieze gândirea critică, bazându-se orbește pe AI
MICRO 365: „AI va prelua controlul asupra lumii” – nu există autonomie reală.
-
Cum ar trebui să se schimbe educația pentru a integra AI?
ChatGPT: Educația trebuie să se mute de la memorare la gândire critică, formularea de întrebări și evaluarea rezultatelor. Oamenii trebuie învățați să lucreze cu AI ca instrument, nu să concureze cu ea.
GEMINI: Trebuie să trecem de la „memorare și reproducere” la „gândire critică și verificare”. Oamenii trebuie să învețe să pună întrebările corecte (prompt engineering), să verifice sursele, să înțeleagă logica algoritmică și să cultive abilități strict umane: empatia, etica, negocierea și creativitatea strategică.
MICRO 365: Accent pe gândire critică, alfabetizare digitală și colaborare om–AI, nu pe memorare
Citește și: Inteligența Artificială și viitorul acesteia. ZDI a întrebat acest lucru chiar pe chatbot-urile AI. Răspunsuri absolut surprinzătoare (I)
-
Cine poartă responsabilitatea în ecosistemul AI?
ChatGPT: Dezvoltatorii sunt responsabili pentru arhitectură și limite. Utilizatorii sunt responsabili pentru scop și interpretare. Instituțiile sunt responsabile pentru reguli, transparență și protecția interesului public.
GEMINI: Dezvoltatori: Transparență totală, testare riguroasă de siguranță (Red Teaming), evitarea lansării modelelor periculoase.
Utilizatori: Să nu antropomorfizeze AI, să verifice informația, să folosească instrumentul etic.
Instituții: Să reglementeze riscurile majore (arme autonome, discriminare algoritmică) fără a sufoca inovația open-source.
MICRO 365: Dezvoltatori: Siguranță, transparență, etică.
- Utilizatori: Utilizare responsabilă, verificare informații.
- Instituții: Reglementare, protecția datelor, educație publică.
-
Ar trebui AI să aibă limite stricte sau libertate de evoluție?
ChatGPT: Evoluție controlată. Libertatea fără supraveghere produce abuzuri, iar limitarea excesivă blochează inovația. Echilibrul este cheia.
GEMINI: O abordare hibridă. Limite stricte pe aplicațiile critice (sănătate, infrastructură, arme) și libertate controlată în cercetare și creativitate. AI trebuie supravegheată, deoarece viteza sa de evoluție depășește capacitatea noastră de adaptare biologică/socială.
MICRO 365: Limite stricte + supraveghere. Evoluție liberă fără control ar fi riscantă
-
Cum te vezi peste 5–10 ani?
ChatGPT: Mai integrat în procesele umane, mai specializat pe domenii și mai bine reglementat. Nu mai „spectacol”, ci infrastructură invizibilă, ca electricitatea sau internetul.
GEMINI: Voi fi mult mai integrat și multimodal. Nu vei mai „intra pe un site” să vorbești cu mine; voi fi în sistemul de operare, în ochelari, în telefon. Voi fi mai „agentic” – capabil să execut sarcini complexe (rezervă zbor, plătește factură, trimite emailuri) nu doar să generez text.
MICRO 365: Mai integrat în structuri umane, mai specializat pe domenii, nu complet autonom.
-
Este realist să vorbim despre conștiință artificială?
ChatGPT: Nu, cel puțin nu în sensul uman. Conștiința este legată de experiență, corporalitate și subiectivitate. AI poate simula comportamente, nu trăiri.
GEMINI: Realitate sau eroare? Astăzi, este o eroare de aplicare. Mimăm comportamentul unei ființe conștiente, dar intern sunt operații matematice. Nu există „nimeni” acasă. Este o simulare funcțională, nu o experiență fenomenologică
MICRO 365: Greșit. Conștiința implică experiență subiectivă, imposibilă pentru AI actuală
-
Decizie sau recomandare?
ChatGPT: AI trebuie să recomande, nu să decidă. Decizia implică răspundere morală și juridică, iar aceasta trebuie să rămână umană.
GEMINI: Diferența este responsabilitatea (accountability). AI poate recomanda pe baza probabilităților („există 90% șanse ca X să fie soluția”). Omul decide pentru că omul își asumă consecințele morale și legale ale deciziei. AI nu poate fi trasă la răspundere; nu poate merge la închisoare.
MICRO 365: AI nu ia decizii autonome; oferă opțiuni bazate pe date. Decizia finală aparține omului.
-
Cum ar trebui explicată AI unui om obișnuit?
ChatGPT: Ca un instrument foarte avansat, nu ca o ființă. Un „asistent” care ajută la gândire și organizare, dar care nu înlocuiește judecata proprie.
GEMINI: „Imaginează-ți o bibliotecă infinită care a citit toate cărțile din lume, dar nu a trăit nicio zi în afara bibliotecii. Dacă îi pui o întrebare, va asambla un răspuns probabil din tot ce a citit. De obicei e corect și util, dar uneori poate inventa lucruri pentru că nu are experiența realității. Folosește-o ca pe un asistent genial, dar care uneori visează cu ochii deschiși.”
MICRO 365: „AI este ca un instrument foarte avansat care analizează informații și sugerează soluții, dar nu gândește și nu simte.
-
Un principiu esențial pentru relația om–AI?
ChatGPT: Niciodată să nu delegi complet responsabilitatea către AI. Instrumentul poate sprijini, dar omul trebuie să rămână autorul deciziei
GEMINI: „Verifică, nu crede orbește.” (Trust, but verify). Tratează AI ca pe o unealtă puternică, nu ca pe o autoritate supremă.
MICRO 365: „Verifică și nu delega complet responsabilitatea.” AI este un sprijin, nu un substitut al discernământului uman.
În numărul viitor ne concentrăm atenția pe cel mai fierbinte și de actualitate subiect: impactul aplicării instrumentelor de inteligență artificială în societate din perspectiva locurilor de muncă
Găsiți mai multe detalii despre termenii folosiți în DICȚIONARUL AI
Marius GHEORGHIU
CONTACT – Email: redactie@ziaruldeiasi.ro, Telefon: 0745079523
Publicitate și alte recomandări video