Inteligenta artificiala poate deveni un pericol pentru omenire. Potrivit expertilor in domeniu, chatbotii ar putea depasi in curand nivelul de informatii pe care il detine creierul uman. O spune chiar unul dintre parintii inteligentei artificiale, care recent si-a anuntat demisia din cadrul Google. Acesta sustine ca regreta munca depusa aspura inteligentei artificiale si avertizeaza asupra pericolului care il poate aduce omenirii.

Publicat:11.06.2023, 22:15

Yuval HARARI, ISTORIC: „In generatiile urmatoare vom invata cum sa construim corpuri, creiere si minti.”

Potrivit unor experti, omenirea risca sa se confrunte cu o noua arma de distrugere in masa. Si daca tehnologia nucleara, care poate distruge fizic civilizatia umana, este folosita acum in primul rand pentru a genera energie ieftina, iar bombele nucleare nu pot inventa alte arme mai puternice, Inteligenta Artificiala poate crea un prototip al sau mult mai puternic si poate anihila lumea noastra mentala si sociala.

Yuval HARARI, ISTORIC: „Unul dintre pericole este ca in urmatoarele decenii vom asista la un proces de inegalitate mai mare decat in orice alta perioada istorica anterioara, deoarece pentru prima data va fi vorba de o inegalitate biologica reala.”

In ultimii doi ani, au aparut noi instrumente ale inteligentei artificiale, care ameninta civilizatia umana dintr-o directie neasteptata. Aceasta a dobandit unele abilitati remarcabile de a manipula si genera limbaj, fie ca este vorba de cuvinte, sunete sau imagini.

Geoffrey HINTON, EXPERT AI: „Este unul dintre acele lucruri pe care oamenii nu aveau cum sa nu le exploreze. Problema este ca, acum cand am descoperit ca functioneaza mai bine, ce facem pentru a reduce riscurile pe termen lung ca lucrurile mai inteligente decat noi sa poata prelua controlul?”

Expertii spun ca inteligenta artificiala poate sa creeze relatii apropiate cu oamenii si sa influenteze actiunile acestora.

Yuval HARARI, ISTORIC: „A pirata o fiinta umana inseamna sa o cunosti mai bine decat se cunoaste ea insasi si, pe baza acestui fapt, sa te manipulezi din ce in ce mai mult. Acest sistem extern are potentialul de a memora tot ceea ce ai facut vreodata, de a analiza si de a gasi modele in aceste date si de a obtine o idee mult mai buna despre cine esti cu adevarat.”

Mai mult de atat, Inteligenta Artificiala ar putea sa isi formeze de sinestatator constiinta sau sentimentele. In iunie 2022, un inginer de la Google, a afirmat public ca chatbotul Lamda, la care lucra, a devenit sensibil. Afirmatia controversata l-a costat pe acesta postul de munca.

Blake LEMOINE, EXPERT AI: „Google are o politica impotriva crearii de inteligenta artificiala sensibila. Si de fapt, cand am informat ca eu cred ca au creat Inteligenta Artificiala a secolului, ei au spus ca nu, aceasta nu este posibil, deoarece avem o politica impotriva acestui lucru.”

Bineinteles ca Inteligenta Artificiala poate fi folosita si in scopuri bune. Ea ne poate ajuta in nenumarate moduri, de la gasirea de noi tratamente pentru cancer, pana la descoperirea de solutii la criza ecologica.

Valeria CRECIUN, REPORTER PRO TV: „ChatGPT poate fi chiar si partenerul tau in diverse jocuri. Noi am decis sa jucam Gomoku. Acum intram pe chat si ii scriem „Hai sa ne jucam Gomoku. Fa prima miscare.” El ne genereaza un tabel si ne spune regulile jocului. In acest mod noi incepem.”

Un expert de la Google, supranumit Nasul inteligentei artificiale, care si-a dat demisia, a avertizat ca aceste sisteme pot deveni periculoase daca ajung in mainile unor persoane cu intentii rele.

Geoffrey HINTON, EXPERT AI: „Noi suntem un sistem biologic, iar acestea sunt sisteme digitale. Iar marea diferenta este ca, in cazul sistemelor digitale, avem mai multe copii ale aceluiasi set de greutati, acelasi model al lumii. Si toate aceste copii pot invata separat, dar isi impartasesc cunostintele instantaneu. Este ca si cum ai avea 10.000 de oameni si, de fiecare data cand o persoana invata ceva, toti ceilalti ar sti automat acel lucru. Si astfel, aceste aplicatii de chat pot sti mult mai multe decat orice persoana.”

Acest lucru poate fi inca luat sub control, insa trebuie de actionat rapid, spun expertii. Acestia afirma ca la fel cum o companie farmaceutica nu poate lansa noi medicamente inainte de a le testa efectele secundare pe termen scurt si lung, asa companiile de tehnologie nu ar trebui sa lanseze noi instrumente inainte ca acestea sa fie sigure.

Valeria CRECIUN, REPORTER PRO TV: „Atunci cand intrebam Chat-ulGPT daca este sau nu periculos pentru noi, oamenii, el ne raspunde cu certitudine ca nu.”

Aceasta stire a fost generata de un om sau poate nu.

Pe Telegram-ul  Pro TV Chisinau  gasiti imaginile, dar si stirile momentului din Moldova si din intreaga lume! Fii reporter Pro TV. Daca ai surprins imagini care pot deveni o stire, ni le poti trimite pe Viber, Whatsapp sau Telegram la numarul 079400508.