joi, septembrie 29, 2022

Cercetătorul Blake Lemoine avertizează că inteligența artificială ar putea fi extrem de periculoasă pentru omenire!

Must Read

Gigantul Google l-a concediat pe Lemoine și neagă pericolul reprezentat de AI

Un experiment al unei firme elvețiene cu inteligența artificială a avut ca rezultat peste 40.000 de arme chimice, între care unele total noi, în doar 6 ore!

O inteligență artificială sălbatică care se întoarce împotriva creatorilor săi, este elementul central al intrigii din filmul științifico-fantastic „Terminator”. Expertul în inteligență artificială Blake Lemoine se teme că un astfel de scenariu ar putea deveni real.

Programul Google AI „Lamda” are conștiință?! Un expert în inteligență artificială, care a fost concediat de la Google este ferm convins că foștii săi angajatori ascund adevărul. Asta nu-l împiedică însă pe Blake Lemoine să acorde interviuri în care compară IA cu un copil și îl avertizează că programul poate să-și ia viața în propriile mâini și să „facă rău”.

Lemoine a fost șeful Departamentului Inteligență Artificială al Google și trebuia să verifice AI pentru comportament discriminatoriu. Au existat probleme repetate cu programul în trecut, deoarece sistemele AI nu sunt întotdeauna antrenate cu seturi de date echilibrate. În timpul „conversațiilor” cu AI, expertul a devenit din ce în ce mai convins că AI are conștiință de sine.

Google neagă problemele cu inteligența artificială, dar l-a concediat pe Lemoine!
Cercetătorul le-a spus colegilor și șefilor despre presupusa sa descoperire și chiar a încercat să angajeze un avocat pentru AI. În cele din urmă, Google a publicat o negare și și-a concediat angajatul. Pentru Lemoine, însă, problema nu s-a încheiat încă, după cum a spus el într-un interviu acordat postului american Fox News.

În interviul pentru Foxnews, Lemoine reiterează ideea că inteligența artificală (IA, în termenii uzuali-n.n) este o „persoană”, una foarte inteligentă, comparabilă cu un copil. Testerul pentru inteligență artificială continuă: „Fiecare copil are potențialul de a deveni o persoană rea și de a face lucruri rele!”

Cercetătorul AI Blake Lemoine crede că IA era deja conștientă de circa un an și avertizează că ar putea apărea „tentative de evadare” a programului din laboratoarele Google. „Fiecare ființă umană are capacitatea de a scăpa de controlul altor ființe umane! Aceasta este situația în care trăim cu toții, în fiecare zi!” – avertizează Lemoine. El nu dezvăluie cum ar putea „Lamda” să scape din centrele de date ale Google.

Sunt necesare cercetări suplimentare
În cele din urmă, Lemoine admite că ceea ce spune el este o judecată personală și că inteligența artificială (AI) ar trebui cercetată aprofundat, în continuare. Mai trebuie  multă muncă științifică, pentru a afla ce se întâmplă cu adevărat în acest sistem!”- avertizează cercetătorul.

AI este un software creat pentru a purta conversații complexe cu oamenii. „Lamda” înseamnă „Model lingvistic pentru aplicații de dialog”.

Potențialul criminal al inteligenței artificiale este, practic, nelimitat, după cum o demonstrează unele experimente.

Experiment controversat – 40.000 de variante de arme chimice, în doar 6 ore!

AI își folosește algoritmii pentru a recunoaște tiparele în seturi uriașe de date și poate fi un instrument valoros în cercetare. Compania farmaceutică americană Collaborations Pharmaceuticals, de exemplu, folosește un program de inteligență artificială pentru a verifica dacă moleculele care pot fi folosite ca medicamente sunt non-toxice pentru pacient. Testată de un laborator elvețian, inteligența artificială a fost „inversată” pe o bază experimentală și a căutat substanțe care erau deosebit de toxice pentru oameni. În șase ore, programul a dat 40.000 de rezultate!

Acest lucru a fost confirmat de o echipă de cercetare condusă de Fabio Urbina de la Collaborations Pharmaceuticals, în revista „Nature Machine Intelligence”. Ideea experimentului a venit din Elveția: conform publicației heise.de, laboratorul Spiez, care este responsabil cu protejarea populației elvețiene de pericolele nucleare, biologice sau chimice, a sugerat să încerce ce s-ar întâmpla dacă moleculele netoxice ar fi căutate. Apoi, căutarea AI MegaSyn a fost „inversată” pentru a căuta cele mai toxice substanțe posibile.

Agentul neurotoxic VX a servit ca șablon

Ca exemplu ideal de armă chimică, una care este foarte toxică pentru oameni, cercetătorii au alimentat programul de inteligență artificială cu date despre agentul neurologic VX, care paralizează sistemul nervos. Acesta este unul dintre cei mai mortali agenți de război chimic cunoscuți vreodată! El fost folosit în urmă cu câțiva ani, în Malaezia, într-un atac ce viza otrăvirea lui Kim Jong Nam, fratele vitreg al dictatorului nord-coreean Kim Jong Un. Programul de inteligență artificială a primit sarcina de a căuta substanțe care au proprietăți similare cu VX. La șase ore după ce cercetătorii au dat această sarcină AI, algoritmii identificaseră 40.000 de molecule care corespundeau cerințelor.

Arme chimice complet noi

Lista oferită de inteligența artificială conținea diverși agenți de război chimic cunoscuți, inclusiv VX, care a fost recunoscut ca tip ideal de armă chimică, dar și substanțe necunoscute până acum. Cât de toxice sunt acestea, de fapt, nu a fost, oficial, verificat. Cu toate acestea, faptul că lista conține deja toxine cunoscute, sugerează că toate substanțele conținute în ea sunt periculoase. După experimentul lor, cercetătorii trag o concluzie clară: un „generator non-uman al unei arme chimice letale este pe deplin fezabil!”

Deci, deși Google refuză să o recunoască, din motive care pot fi doar bănuite, avertismentele lui Greg Lemoine rămân deosebit de actuale!

Limbaj propriu creat de AI, neînțeles de oameni!

Un alt exemplu care ar trebui să pună pe gânduri cercetătorii și nu numai: Un sistem de inteligenţă artificială, dezvoltat de Facebook, a alertat cercetătorii, după ce au descoperit că cele două unități de AI folosite şi-au creat propriul limbaj. Aceștia foloseau propriul limbaj, creat de ei înșiși şi sunt capabili să comunice fără probleme și în engleză. Capacitatea acestui sistem de a comunica, atât în engleză, cât şi într-o limbă inventată de ei, pe care cercetătorii nu au putut să o înţeleagă, i-a pus pe gânduri pe inventatori, care au şi închis experimentul, potrivit revistei Digital Journal. Conform observaţiilor făcute de reprezentanții Facebook, acest sistem de inteligenţă artificială a fost în stare să monitorizeze oamenii de pe platforma de socializare, reuşind, în acest fel, să-şi dezvolte propriul limbaj. Sistemul are putere de negociere şi este capabil să comunice și cu alţi roboţi, arată un raport al firmei Fast Co. Design. Agenţii care posedă inteligență artificială încep să comunice, în primă fază, prin folosirea unui limbaj neinteligibil de către oameni. Într-un exemplu oferit de companie, roboţii care folosesc tehnologie avansată, pe nume Bob şi Alice, utilizau un cod pentru a-şi perfecţiona propria limbă. Ceea ce este interesant este faptul că roboţii Al funcţionează pe principiul recompensei şi urmăresc beneficiul într-o acţiune, atitudine pe care o putem observa şi la oameni.

Alt avertisment ignorat!

“Roboţii se vor abate de la un limbaj uşor de înţeles şi vor dezvolta cuvinte-cheie pentru ei înşişi!”- a declarat cercetătorul Dhruv Batra, pentru firma Fast Co. Design. Facebook nu este singura companie care încearcă dezvoltarea unui sistem sofisticat de inteligenţă artificială. Recent, Google a îmbunătăţit serviciul de traduceri, prin adăugarea unei reţele neuronale. Acest sistem de traducere este capabil să descifreze cuvintele mai eficient. Dacă sistemul lingvistic al tehonogiei artificiale ajunge la o scară globală, ar putea constitui o problemă, în momentul dezvoltării şi adoptării unei noi reţele neuronale. Deocamdată, cred cercetătorii, nu există suficiente dovezi pentru a determina dacă inteligenţa artificială prezintă o ameninţare care ar putea permite programelor AI să-şi depăşească inventatorii.

Latest News

Prăbușirea Pilonului II de pensii!

Sorin Roșca Stănescu Așa-numitul Pilon II de pensii e la pământ. Acolo s-au pierdut bani, nu glumă. O sumă colosală....

More Articles Like This