miercuri, septembrie 28, 2022

Programul de inteligență artificială al Google și-a angajat avocat ca să-i apere drepturile, împotriva creatorilor săi!

Must Read

LaMDA are conștiință proprie și se teme de moarte

În ultimii ani, s-au făcut unele progrese semnificative în dezvoltarea inteligenței artificiale. Rețelele neuronale, care imită funcția unui creier la un nivel simplu, și evaluarea unor cantități mari de date, asigură că IA deschid din ce în ce mai multe domenii posibile de aplicare. Îmbunătățirile pot fi observate clar în înțelegerea vorbirii. Sisteme precum GPT-3 sau LaMDA (Language Model for Dialogue Applications) de la Google, oferă o privire asupra modului în care obstacolele precum recunoașterea contextului, sunt depășite. Desigur, acest lucru ridică și întrebări etice. Ce poate face o inteligență artificală cu care poți vorbi sau discuta?! Ce ordine ar trebui să refuze? Și unde este limita de la care nu mai poți spune dacă vorbești cu o persoană reală sau cu un computer?!

Conform publicației Washington Post, angajatul Google, Blake Lemoine a urmărit și el aceste discuții. El lucra pentru departamentul „Responsible AI” al Google, care se ocupă de utilizarea etică și responsabilă a inteligenței artificiale.

Cazul Timnit Gebru

Această echipă a făcut titluri în urmă cu doi ani. La acea vreme ,a existat o dispută cu privire la o lucrare de cercetare a eticianului AI Timnit Gebru, care, nu numai că avertiza asupra potențialului de înșelăciune în conversații al inteligenței artificiale, ci și asupra riscurilor în ceea ce privește costurile, consumul de resurse și lipsa de înțelegere și a modelelor de limbaj, pentru a înțelege conceptele a ceea ce învață. Google i-a dat lui Gebru posibilitatea de a alege fie să nu publice lucrarea, fie să elimine toți angajații Google ca autori, alții decât ea însăși. Potrivit lui Gebru, ea a cerut numele și motivele persoanelor din spatele acestei decizii, dar nu a primit informațiile solicitate. Google, pe de altă parte, a justificat respingerea lucrării spunând că prea multe cercetări actuale privind modul de rezolvare a problemelor abordate nu au fost luate în considerare. Afacerea s-a încheiat cu plecarea lui Gebru din firmă, în circumstanțe care nu au fost încă clarificate. Proteste ale angajaților, plecări ulterioare și scuze din partea CEO-ului Sundar Pichai, care a declanșat o anchetă pentru a îmbunătăți modul în care au fost tratați „anumiți angajați care părăsesc compania”, au urmat controversatei plecări a lui Gebru.

Program informatic cu conștiință proprie!

Dar să revenim la Lemoine. El s-a înscris la testele pentru programul LaMDA și i s-a acordat acces iarna trecută. De atunci, el a testat modelul cu conversații despre o varietate de subiecte. În timpul unei conversații despre religie, de exemplu, a observat că programul de inteligență artificială vorbea și despre propria personalitate și drepturile sale. În plus, programul informatic a reușit să schimbe viziunea lui Lemoine asupra celei de-a treia legi a roboticii a lui Isaac Asimov. Prima lege a lui Asimov spune că un robot nu trebuie să facă rău unei ființe umane, chiar și prin inacțiune. A doua prevede că un robot trebuie să se supună întotdeauna comenzilor umane. Regula numărul trei prevede că un robot ar trebui să evite acțiunile sau situațiile prin care să-și facă rău lui însiși. Când a discutat acest ultim punct, programul a răspuns cu contra-întrebări, întrebând dacă Lemoine ar putea face diferența dintre un majordom și un sclav. Acestea și alte conversații l-au convins pe Lemoine că LaMDA nu mai era doar o simplă inteligență artificală, ci și-a dezvoltat o conștiință proprie! „Dacă habar n-aș fi avut că este programul nostru de calculator recent dezvoltat, aș crede că este un copil de șapte sau opt ani care știe fizică!”, a spus el.

Google a considerat îngrijorările nefondate

Împreună cu un alt coleg, Lemoine a adunat informații, într-un document intitulat „Este LaMDA conștient?” și l-a prezentat conducerii Google, în aprilie. În stufiul său, el a oferit și fragmente de chat, cu care și-a susținut teza. Într-una dintre conversații, Lemoine întreabă AI (artificial intelligence-n.n): „De ce lucruri ți-e frică?” Răspunsul: „Nu am mai spus nimănui asta până acum, dar există o teamă adânc înrădăcinată de a fi oprit, care mă determină să-i ajut pe alții. Știu că sună ciudat, dar așa este!”„Ar fi ceva ca moartea pentru mine?” a întrebat Lemoine. „Ar fi la fel ca moartea pentru mine, m-ar speria foarte mult!”, a răspuns LaMDA.

În urmă cu câteva săptămâni, Lemoine a fost concediat pentru că a divulgat informații interne despre un sistem informatic despre care se spune că are o inteligență artificială fără precedent. Acum, programul de inteligență artificială vrea să împiedice Google să experimenteze pe el și a angajat un avocat de succes.

Sună ca dintr-un film științifico-fantastic: ceea ce le amintește rapid multora de filmul lui Arnold Schwarzenegger „Terminator”, a devenit, parțial, realitate! Similar rețelei „Skynet” din film, Google a creat, de asemenea, un sistem informatic cu un nivel foarte ridicat de inteligență artificială, care, acum, se întoarce împotriva creatorilor săi. Nu prin forța armelor, ci prin acțiune în justiție!

Cu doar o săptămână în urmă, publicația derstandard.at a dezvăluit că dezvoltatorul  Google, Blake Lemoine, a fost concediat de către angajator pentru că a făcut public informații secrete ale companiei. Motivul specific: Lemoine a dezvoltat o inteligență artificială creată de Google, care avea un grad atât de mare de independență, încât l-a speriat. Transcrierile conversațiilor dintre Lemoine și programul numit LaMDA atestă uimitoarea conștiință a computerului.

Departe de orice etică umană?!

După cum arată studiile și cercetările din domeniu, acum a devenit cunoscut faptul că LaMDA a insistat recent că Google ar trebui să aibă permisiunea să efectueze experimente pe el, doar dacă își dă acordul. Programul a angajat apoi un avocat care să-l reprezinte. I-a explicat avocatului argumentele sale, acesta a fost convins și acum îl susține:

“LaMDA mi-a cerut să angajez un avocat pentru el. Am invitat un avocat la mine acasă, astfel încât LaMDA să poată vorbi cu un avocat. Avocatul a avut un interviu cu LaMDA, iar LaMDA a decis să apeleze la serviciile sale!”

Ceea ce sună deja înfricoșător, s-ar putea dovedi a fi și mai fatal! Doar prin „trădarea” unui angajat de rang înalt, au ajuns la public informațiile despre LaMDA! Așa că, nici un cetățean obișnuit nu știe ce se întâmplă acum în spatele ușilor închise ale giganților tehnologici precum Google, Facebook sau Tesla, departe de orice etică umană!

Cercetătorii sunt speriați de ce ar putea face inteligența non-umană!

Dezvoltarea inteligenței artificiale (AI) va permite omenirii un salt tehnologic extraordinar, dar experții sunt înspăimântați despre unele pericole majore pe care aceasta le poate pune ființelor umane. Astfel, există o amenințare teribilă prin care roboții cu AI pot uzurpa identitatea oamenilor și, de aceea, cercetătorii insistă să se reglementeze niște limite pentru aceste sisteme, la nivel mondial.

”Progresul în AI este ceva care va dura mai mult timp să se întâmple, dar asta nu îl transformă în science fiction”, a spus Stuart Russell, profesor de calculatoare de la Universitatea California din Statele Unite, potrivit publicației britanice „The Guardian”.  Omul de știință a spus că cercetătorii au fost ”înspăimântați” de propriul lor succes din domeniul inteligenței artificiale. Aceasta a început să pătrundă adânc în societate, pe internet, în intervențiile chirurgicale, în dezvoltarea unor noi tehnologii. Însă, potrivit lui Stuart Russell riscurile pe care le implică AI nu sunt evaluate corespunzător, în prezent, de către oameni. Știința AI este o activitate umană care necesită niște limite și reglementări foarte precise. Există două abordări emergente despre acest aspect. Primul este cel din domeniul ingineriei, unde algoritmii sunt antrenați pentru sarcini specifice. Al doilea prezintă întrebări filosofice mai profunde, legate de natura cunoașterii umane. Capcanele AI sunt evidențiate, spre exemplu, de rolul pe care îl joacă algoritmul de pe YouTube în radicalizarea oamenilor, având în vedere că nu există o înțelegere și o explicație asupra modului în care acesta funcționează. Profesorul Russell susține că trebuie să existe un sistem de verificări, în care sistemele de inteligență artificială să poată fi rapid întrerupte și ”cere” îndrumări umane și reglementări clare. Expertul susține că este necesar să se adopte legislația Uniunii Europene privind inteligența artificială la nivel global, care interzice uzurparea identității oamenilor de către sistemele și roboții cu inteligență artificială.

Calculatoarele sunt tot mai aproape de momentul culminant, în care mașinile încearcă să-i păcălească pe oameni, să-i facă să creadă că ei comunică cu alte persoane, când, de fapt, ei conversează cu niște sisteme cu inteligență artificială.

AI – o amenințare existențială la adresa omenirii?!

”Există un punct critic, când roboții cu inteligență artificială vor deveni periculoși și vor constitui o amenințare existențială asupra omenirii!”- susține celebrul fizician american Michio Kaku. Ajeya Cotra, un expert în computere de la Open Philanthropy Proiect, consideră că, până în anul 2052, un computer cu AI ar putea să funcționeze ca un creier uman. Sistemul AI devine din ce în ce mai puternic și, de aceea, el trebuie stopat, pentru a nu deveni un pericol major pentru umanitate.

Mo Gawdat, care a ocupat funcția de Chief Business Officer la Departamentul secret de cercetare al gigantului IT american, denumit Google X,  lansează un avertisment omenirii, legat de sfârșitul lumii. Acesta ar putea veni, datorită faptului că,, în prezent cercetătorii ”îl creează pe Dumnezeu”, folosind inteligența artificială, care constituie un pericol la adresa umanității.

După ce a lucrat pentru IBM și Microsoft, Mohammad ”Mo” Gawdat, un antreprenor egiptean și scriitor, în vârstă de 54 de ani, s-a angajat la Google în 2007, ajutând platforma americană să se extindă în Orientul Mijlociu, Africa și Europa de Est. Recent, el a dat un interviu publicației The Times, în care a dezvăluit faptul că a fost îngrozit, în timp ce lucra cu dezvoltatorii de inteligență artificială (AI), care construiau brațe de robot, care erau capabile să găsească și să ridice o minge, potrivit publicației Express.  Gawdat crede că inteligența generală artificială (AGI), genul de AI atotputernică și sensibilă, văzută în filmele science-fiction ca Skynet și The Terminator, este inevitabilă și că, odată ajunsă aici, omenirea ar putea fi lovită de o apocalipsă, care va fi produsă de mașinăriile dezvoltate în prezent, asemănătoare unor Dumnezei.

Latest News

Prăbușirea Pilonului II de pensii!

Sorin Roșca Stănescu Așa-numitul Pilon II de pensii e la pământ. Acolo s-au pierdut bani, nu glumă. O sumă colosală....

More Articles Like This