03:31:03 27.02.2024
Stiri

Inteligență artificială ar putea UCIDE rasa umană. Cele CINCI moduri prin care o poate face

Actualitate 12.02.2024 19:30 Vizualizări843 Autor: Ziarul National
Inteligență artificială ar putea UCIDE rasa umană. Cele CINCI moduri prin care o poate face


Ben Eisenpress, director de operațiuni la Future of Life Institute, a avertizat MailOnline că „toate riscurile catastrofale ale inteligenței artificiale sunt subestimate în prezent”.

De la Terminator la Matrix, roboții ucigași au fost mult timp o piesă de bază terifiantă a filmelor științifico-fantastice.

Dar, deși în cinematografie sunt demni de speriat, ar trebui să ne temem cu adevărat de o inteligență artificială?

Experții spun că există cinci moduri în care IA ar putea aduce sfârșitul omenirii.

Ben Eisenpress, director de operațiuni la Future of Life Institute, a avertizat MailOnline că "toate riscurile catastrofale ale inteligenței artificiale sunt subestimate în prezent".

Așadar, dacă încă mai credeți că apocalipsa IA nu este altceva decât un subiect de film, citiți mai departe cu atenție.

IA ce evită filtrele de siguranță pentru o îndeplinire mai eficientă a obiectivelor

Atunci când vă gândiți că inteligența artificială va duce la distrugerea umanității, cel mai probabil vă gândiți la roboți ucigași.

O îngrijorare este că am putea crea o inteligență artificială atât de puternică încât omenirea să piardă capacitatea de a o controla, ceea ce ar duce la consecințe nedorite.

Până de curând, acest lucru nu era nimic mai mult decât un scenariu pentru filme și un exercițiu teoretic pentru tehnologi.

Dar acum, odată cu progresele rapide pe care le vedem în domeniul IA, Eisenpress spune că acest scenariu nu mai pare atât de îndepărtat.

El spune: „În cazul în care inteligența artificială scapă de sub controlul uman și provoacă daune pe scară largă, atunci trebuie să ne așteptăm la un risc imens. Trebuie să vedem încotro se îndreaptă IA, nu doar unde se află în prezent. În ultimii ani s-au înregistrat progrese uluitoare. Experții prevăd că vor urma și mai multe".

După cum explică Eisenpress: „Un obiectiv deschis va împinge IA să caute putere, deoarece mai multă putere ajută la atingerea obiectivelor. IA din ce în ce mai capabile să acapareze mai multă putere vor sfârși rău în mod implicit".

Arme biologice

Deocamdată, inteligența artificială în sine ar putea să nu reprezinte cel mai mare pericol - problema cea mai mare este reprezentată de ceea ce pot crea oamenii cu ajutorul inteligenței artificiale.

„Pe termen scurt, bioterorismul activat de IA este poate una dintre cele mai grave amenințări generate de dezvoltarea necontrolată a IA", spune Eisenpress.

Și nu este singurul care își exprimă îngrijorarea.

De asemenea, Dario Amodei, fondatorul firmei de inteligență artificială Anthropic, a avertizat Congresul SUA că IA ar putea ajuta infractorii să creeze arme biologice în termen de doi-trei ani.

Cercetătorii au descoperit că un instrument conceput pentru descoperirea de medicamente benefice ar putea fi ușor convertit pentru a descoperi noi toxine biochimice.

În mai puțin de șase ore, IA a prezis peste 40.000 de noi molecule toxice - multe dintre ele mai periculoase decât armele chimice existente.

Eisenpress spune că îngrijorarea sa este că "actorii răi", cum ar fi grupurile teroriste, vor putea să transforme aceste instrumente pentru a dezlănțui molime devastatoare sau atacuri chimice.

IA independent de om

În 2017, sisteme informatice fără legătură între ele din întreaga lume au început brusc să aibă probleme inexplicabile.

Cel mai mare port de containere din India a fost blocat, sistemul de monitorizare a radiațiilor de la centrala nucleară de la Cernobîl a fost deconectat, iar băncile, firmele farmaceutice și spitalele au pierdut brusc controlul asupra sistemelor lor.

Vinovatul a fost virusul NotPetya, o armă cibernetică foarte probabil creată de armata rusă pentru a ataca Ucraina.

Dar când virusul s-a scurs, s-a răspândit mult mai mult decât se așteptau creatorii săi, ducând la pagube estimate la 10 miliarde de dolari (7,93 miliarde de lire sterline).

La fel ca și în cazul armelor biologice, IA stă să supraîncarce capacitatea armelor cibernetice până la noi niveluri de distrugere.

Departamentul de Stat al SUA a avertizat: „Am observat că unii actori nord-coreeni și alți actori naționali-statali și criminali încearcă să folosească modele de inteligență artificială pentru a ajuta la accelerarea scrierii de software malițios și la găsirea de sisteme pe care să le exploateze".

Anul trecut, cercetătorii de la Centre for AI Safety au scris: „Eliberarea unor inteligențe artificiale puternice și permiterea acestora să acționeze independent de oameni ar putea duce la o catastrofă".

Război nuclear

Armatele lumii încep acum să ia în considerare implementarea inteligenței artificiale în sistemele lor de luare a deciziilor.

Strategia de inteligență artificială în domeniul apărării din 2022, a Ministerului Apărării, a ajuns la concluzia că acest lucru ar putea "să pună la încercare limitele înțelegerii umane".

Raportul a concluzionat că Regatul Unit "trebuie să adopte și să exploateze IA într-un ritm corect".

Eisenpress spune că încorporarea inteligenței artificiale în sistemele noastre militare poate duce la pericole și mai mari, în special în cazul armelor nucleare.

La fel ca în clasicul „WarGames” din 1983, utilizarea IA pentru a controla armele nucleare ar putea duce la un război nuclear.

El a declarat: „Sistemele de inteligență artificială de astăzi sunt în mod inerent nesigure, capabile să ia decizii inexplicabile și să "halucineze".

„Integrarea IA în sistemele de comandă și control nuclear este destabilizatoare", a mai spus acesta.

Una dintre îngrijorări este că luarea rapidă a deciziilor de către IA ar putea duce la erori mici, de exemplu, identificarea greșită a unui avion, care ar putea escalada rapid într-un război în toată regula.

Odată ce IA a făcut eroarea inițială, IA-urile diferitelor națiuni ar putea reacționa între ele mai repede decât ar putea controla orice om, ducând la un "război fulger".

„Chiar dacă, din punct de vedere tehnic, există un 'om la comandă', nu ne putem baza pe acest lucru, având în vedere astfel de mize existențiale', conchide Eisenpress.

Preluarea treptată a puterii

Eisnepress spune că un mod în care ne-am putea împiedica de sfârșitul umanității așa cum o cunoaștem este printr-o preluare lentă și tăcută.

„Modulul nostru „Gradual AI Disempowerment' spune povestea în care oamenii ar putea ceda treptat controlul asupra lumii către IA, fără un singur moment dramatic', a spus el.

De la tranzacțiile financiare la procedurile juridice, multe sarcini au fost deja predate IA.

Eisenpress a declarat: „În timp, inteligența artificială va fi integrată în tot mai multe sisteme, inclusiv în cele esențiale pentru modul nostru de viață".

„Companiile sau partidele politice care refuză să valorifice IA vor pierde în fața celor care o fac, creând o cursă spre bază. Încetul cu încetul, oamenii vor avea mai puțin control asupra lumii", a adăugat Eisenpress.

În cele din urmă, acesta afirmă că: „Ne-am putea trezi la mila IA, fără ca măcar să ne dăm seama ce se întâmplă".

Eisenpress încheie cu un citat din Alan Turing, fondatorul informaticii moderne, care a scris în 1915: „Nu va dura mult timp până când vor depăși puterile noastre slabe... La un moment dat, trebuie să ne așteptăm ca mașinile să preia controlul", conform Daily Mail.


Stiri relevante
Top stiri

Parteneri
Descoperă
Punct de vedere NAȚIONAL
26.02.2024 09:09 Nicolae Negru Nicolae Negru // După Maria Zaharova,...

23.02.2024 09:14 Nicolae Negru Nicolae Negru // Doi ani de război se...

19.02.2024 09:14 Nicolae Negru Nicolae Negru // Putin în persoană și...

Promo
Abonament
Abonează-te pentru a fi la curent cu ultimele știri
Recomandat
Sondaj
Sunteți de-acord ca referendumul constituțional privind aderarea R. Moldova la Uniunea Europeană să fie organizat în aceeași zi cu alegerile prezidențiale din anul curent?
Prietenii noștri

Widget cu noutăți la tine pe site

Ziarul Național 2013-2021. Toate drepturile sunt rezervate

Despre noi Publicitate News widget RSS Contacte Developed by WebConsulting.md