Inteligența artificială (IA) oferă baza pentru inovații majore în întregul ciclu de inteligență. Această tendință va continua, probabil, în următorii ani, creând o lățime de bandă analitică suplimentară și remodelând modul în care informațiile sunt elaborate și comunicate publicului destinat.
Cu toate acestea, în ciuda potențialului său de a conduce la schimbări transformaționale în cadrul lumii „intelligence-ului”, IA nu este un substitut viabil pentru omul din „buclă”. Profesioniștii foarte bine instruiți și pricepuți digital care lucrează în servicii vor rămâne aproape sigur la mare căutare.
Până acum în 2023, Inteligența Artificială a dominat orice discuție despre tehnologie. Instrumente precum ChatGPT și generatoarele de imagini Stable Diffusion sau Dall-e au fost subiectele preferate de „bârfă”. Microsoft pregătește o versiune îmbunătățită, iar Alphabet, compania mamă a Google, și-a anunțat deja propriul chatbot, Bard.
Multe dintre aceste tehnologii pot fi utilizate pentru a permite și optimiza modul în care informațiile sunt colectate, procesate, analizate și diseminate. Dacă sunt utilizate corect, modelele ca ChatGPT pot economisi timp prețios de analiză prin completarea unui număr de sarcini esențiale de colectare și procesare a informațiilor. Exemplele ar putea include „scraping web” pentru cazuri în care vorbim despre proteste în masă, efectuarea de verificări în istorie la problemele emergente de importanță geostrategică sau crearea și curățarea fluxurilor de informații „open-source”.
Cu ajutorul instrumentelor de editare video bazate pe IA, cum ar fi Lumen5, se va putea reimagina modul în care produsele și serviciile de informații strategice sunt diseminate și communicate publicului. Iar viitoarele instrumente de implicare și feedback IA ar putea ajuta în mod similar la anticiparea subiectelor de care clienții ar fi interesați. Presa, de exemplu, are numai de câștigat utilizând această tehnologie.
Riscuri, limitări și preocupări
Însă, în ciuda potențialului semnificativ de a remodela lumea, Inteligența Artificială, oricât de convingătoare pare adeseori, are deficiențe semnificative în orice activitate ce ține de lumea informației.
Utilizarea IA pentru cercetări specializate riscă să introducă inexactități și prejudecăți în evaluările informațiilor. ChatGPT, de exemplu, produce un text care este convingător, dar adesea transmis greșit și care poate distorsiona faptele științifice și amplifica falsitățile.
De asemenea, lipsa de transparență, inclusiv în ceea ce privește modul în care aplicațiile IA ajung la acele concluzii, este o preocupare.
Prin urmare, încrederea clienților în furnizorii de IA se va reduce foarte mult dacă firmele IT nu vor fi în măsură să explice modul în care sunt atinse judecățile exprimate de aceste „mașinării”.
Inteligența Artificială nu va fi o alternativă adecvată la analistul uman, care știe cum să dea un sens evoluțiilor globale complexe, să contextualizeze informațiile-cheie pentru factorii de decizie și să emită judecăți cu privire la cele mai probabile rezultate.
În ciuda numeroaselor sale beneficii, ChatGPT nu are același nivel de inteligență generală, intelect emoțional și creativitate, elemente care sunt esențiale pentru finalizarea acestor tipuri de activități în lumea intelligence-ului.
Tehnologia IA actuală este departe de a fi capabilă măcar să corespundă capacității de înțelegere și învățare pe care o au, în prezent, analiștii bine pregătiți. Experții anticipează că vor trece câteva decenii până când vor exista sisteme de Inteligență Artificială mai inteligente decât oamenii (AGI, cum mai este numită Inteligență Generală Artificială). Dar chiar și după sosirea AGI este puțin probabil ca o astfel de tehnologie să fie capabilă să dezvolte relațiile personale necesare obținerii inteligenței umane (HUMINT).
Prin urmare, cei care lucrează în domeniul „intelligence-ului” sunt conștienți că rolul analistului de informații nu va dispărea și în niciun caz nu va fi redus pur și simplu la verificarea faptului că informațiile derivate din IA sunt corecte, adecvate și potrivite scopului.
Pe măsură ce adoptarea IA va crește, asigurarea faptului că analiștii de informații rămân în buclă va fi esențială pentru a garanta că halucinațiile exprimate de Inteligența Artificială sunt detectate la timp, iar informația furnizată sistemului rămâne exactă, auditabilă și strategică.