Nicio tehnologie de la bomba atomică încoace nu a inspirat imaginația apocaliptică mai mult decât inteligența artificială. De când ChatGPT a început să dea dovadă de raționamente logice în noiembrie, internetul a fost inundat de scenarii armaghedon.
Multe dintre ele sunt în mod conștient fanteziste – sunt menite să ne facă să ne gândim cât de rău ar putea merge lucrurile dacă o inteligență emergentă ajunge să înțeleagă lumea și propriile obiective, chiar și puțin diferit de creatorii săi umani.
Cu toate acestea,notează The Atlantic, un scenariu necesită mai puțină imaginație, deoarece primii pași spre el sunt, probabil, deja făcuți – integrarea treptată a inteligenței artificiale în cele mai distructive tehnologii din prezent.
Marile puteri militare ale lumii au început o cursă pentru a introduce inteligența artificială în război. Deocamdată, acest lucru înseamnă, în mare parte, acordarea de control algoritmilor asupra armelor individuale sau a dronelor. Nimeni nu invită IA să formuleze o strategie majoră sau să se alăture unei reuniuni a șefilor de stat major. Dar aceeași logică seducătoare care a accelerat cursa înarmărilor nucleare ar putea să propulseze IA în susul lanțului de comandă.
Cât de repede? Depinde, în parte, de cât de repede avansează tehnologia, iar aceasta se mișcă cu viteză mare.O formă de inteligență artificială s-ar putea să nu înțeleagă ce au vrut să spună Ronald Reagan și Mihail Gorbaciov: „Un război nuclear nu poate fi câștigat”.
Există un precedent, desigur, pentru automatizarea Armaghedonului. După ce Statele Unite și Uniunea Sovietică au ieșit învingătoare din cel de-al Doilea Război Mondial, păreau pregătite să se înarmeze într-un al treilea, o soartă pe care au evitat-o doar prin construirea unei infrastructuri de distrugere reciprocă asigurată. Acest sistem se bazează pe o simetrie terifiantă, dar se clatină de fiecare dată când una dintre părți face un nou progres tehnologic.
Noile tehnologii au redus perioada de timp dintre momentul în care este detectat un atac și ultimul moment în care un președinte poate ordona o salvă de represalii.Nu i se va cere IA să controleze mișcările trupelor sau să lanseze atacuri coordonate în viitorul foarte apropiat. Însă pe măsură ce modelele de limbaj de mari dimensiuni continuă să se îmbunătățească, acestea ar putea fi solicitate în cele din urmă să genereze narațiuni lucide ale crizelor cu evoluție rapidă, în timp real, inclusiv crize nucleare.
Un “comandant” de inteligență artificială va fi creativ și imprevizibil: un algoritm simplu conceput de OpenAI a învins jucători umani la o versiune modificată a jocului de simulare de luptă, Dota 2, cu strategii la care aceștia nu s-au gândit niciodată. În special, s-a dovedit dispus să își sacrifice proprii soldați.
La un moment dat, un șef de stat ar putea preîncărca algoritmii de comandă și control în prima sa zi de mandat, poate chiar acordând unui astfel de “comandant” permisiunea de a improviza, pe baza propriilor impresii despre un atac în desfășurare.Orice inovație în domeniul armelor nucleare – sau al apărării – ar putea conduce o IA la o schimbare la fel de dramatică.
Orice țară care introduce inteligența artificială în sistemul său de comandă și control îi va motiva și pe ceilalți să urmeze exemplul, fie și numai pentru a menține o forță de descurajare credibilă.
În plus, orice tratat nuclear poate fi întotdeauna încălcat, iar respectarea acestuia ar fi deosebit de dificil de verificat, deoarece dezvoltarea IA nu necesită adăugarea de rachete sau instalații de îmbogățire a uraniului vizibile.
Tentația de a automatiza comanda și controlul va fi mare. Pericolul este și mai mare.