AcasăTEHNOLOGIECea mai puternică armată din lume nu are încredere în inteligența artificială?

Cea mai puternică armată din lume nu are încredere în inteligența artificială?

În ciuda dorinței militarilor de a utiliza modelele lingvistice mari și alte instrumente de luare a deciziilor bazate pe IA, există limitări și pericole reale.

În 2022, OpenAI a prezentat ChatGPT, un chatbot care utilizează modele lingvistice mari(LLM) pentru a imita conversațiile umane și pentru a răspunde la întrebările utilizatorilor. Abilitățile extraordinare au stârnit o dezbatere despre modul în care ar putea fi utilizate aceste modele pentru a îndeplini alte sarcini – inclusiv pentru a purta un război.

În noiembrie 2023, Departamentul  american al Apărării(DOD) și-a publicat strategia de adoptare a tehnologiilor de inteligență artificială. „Cele mai recente progrese în domeniul datelor, al analizei și al tehnologiilor de inteligență artificială le permit liderilor să ia decizii mai bune și mai rapid, de la sala de consiliu la câmpul de luptă”, se arăta în raport. Trupele americane au avut sisteme dotate cu IA care au selectat ținte Houthi în Orientul Mijlociu.

Potrivit Foreign Affairs, atât Corpul de Marină al SUA, cât și Forțele Aeriene experimentează cu LLM-uri, folosindu-le pentru jocuri de război, planificare militară și sarcini administrative de bază.

Dar, în ciuda entuziasmului pentru inteligența artificială și LLM-uri, conducerea Pentagonului este îngrijorată de riscurile pe care le prezintă aceste tehnologii. Marina citează vulnerabilități de securitate și divulgarea involuntară de informații sensibile.

Reglajele fine nu înlocuiesc decizia umană

Pentru forțele armate, un LLM nu poate fi instruit doar pe date militare; are nevoie în continuare de forme mai generice de informații și schimburile digitale zilnice care populează internetul. Există diferite abordări pentru reglarea fină, dar aceasta se face adesea prin încorporarea informațiilor de pe forumurile de asistență online în a se asigura că rezultatele LLM sunt mai aliniate la preferințele și comportamentul uman.

Un alt model lingvistic, modelul de preferințe, este antrenat separat pe baza evaluărilor umane ale exemplelor generate de LLM pentru a atribui oricărui text dat un scor absolut privind utilizarea sa pentru oameni. Modelul de preferințe este apoi utilizat pentru a permite reglarea fină a LLM-ului original.

În plus, există un control redus asupra regulilor de bază care sunt învățate de LLM în timpul reglajului fin. Se datorează faptului că nici LLM, nici modelul de preferințe pentru reglajul fin nu „învață” direct un subiect. Mai degrabă, poate fi antrenat doar prin prezentarea unor exemple de comportament dorit în acțiune, oamenii sperând că regulile de bază sunt suficient de bine internalizate. Dar nu există nicio garanție că acest lucru se va întâmpla.

Pre-antrenarea și reglarea fină pot crea LLM-uri capabile, însă procesul nu reușește încă să creeze înlocuitori direcți ai procesului de luare a deciziilor umane. Prin urmare, nu este posibil să se prevadă în mod fiabil ce va face un model de limbaj atunci când ia decizii cu miză mare.

Un jucător riscant

LLM-urile ar putea îndeplini sarcini militare care necesită procesarea unor cantități uriașe de date în termene foarte scurte, ceea ce înseamnă că armatele ar putea dori să le utilizeze pentru a spori procesul decizional sau pentru a simplifica funcțiile birocratice. În timpul războiului sau al unei crize, ar putea folosi orientările existente pentru a elabora ordine, chiar și atunci când comunicarea dintre unități și comandanții lor este limitată sau minimă.

Dar chiar și pentru aceste sarcini, succesul LLM-urilor nu poate fi garantat. Comportamentul lor, în special în exemple rare și imprevizibile, poate fi neregulat. Și pentru că nu există două LLM-uri care să fie exact la fel în ceea ce privește instruirea sau reglarea lor fină, acestea sunt influențate în mod unic de contribuțiile utilizatorului.

În ciuda dorinței militarilor de a utiliza LLM-uri și alte instrumente de luare a deciziilor bazate pe inteligență artificială, există limitări și pericole reale. Comandanții  trebuie să realizeze că, în mod fundamental, comportamentul unui LLM nu poate fi niciodată complet asigurat, în special atunci când se fac alegeri rare și dificile privind escaladarea și războiul.

author avatar
Radu Jacotă Redactor
1.369 afisari
Zenville

Ultimele știri

proger