OpenAI a anunțat recent că peste un milion de persoane discută săptămânal cu ChatGPT despre sinucidere.
Aproximativ 0,15% dintre utilizatori pot discuta despre planuri de sinucidere sau pot demonstra o dependență nesănătoasă de chatbot.
Procentul pare mic, dar, pentru a înțelege gravitatea situației, amintiți-vă de alt.suicide.holiday, celebrul grup de știri Usenet la începutul anilor ’90. ASH a devenit un loc de întâlnire pentru persoanele care se gândeau la sinucidere, oferind nu doar sprijin emoțional, ci și discuții detaliate despre metode.
Cu 800 de milioane de utilizatori săptămânali, ChatGPT este mai puțin un forum de nișă și mai mult un instrument util în viața de zi cu zi, potrivit UnHerd. Cu toate acestea, întrebarea fundamentală rămâne fără răspuns: care sunt limitele discursului responsabil și legal atunci când sunt implicate persoane cu tendințe suicidale? Și a cui este responsabilitatea?
Apărătorii ASH s-au bazat pe argumente legate de libertatea de exprimare: dacă adulții au dreptul să discute despre sinucidere, suprimarea unui astfel de discurs este, în cel mai bun caz, paternalistă și, în cel mai rău caz, poate adânci izolarea. Contraargumentul este însă la fel de puternic: discursul care facilitează sinuciderea riscă să provoace daune ireversibile.
Luna trecută, Matthew Raine a afirmat că fiul său, Adam, primea sfaturi de la ChatGPT despre cum să se sinucidă. O mamă din Florida susține că un bot Character.AI s-a angajat în jocuri de rol sexuale și a contribuit la izolarea fiului ei de 14 ani înainte de sinuciderea acestuia.
Cine poartă responsabilitatea? OpenAI, pentru că a creat sisteme care pot oferi sfaturi periculoase? Părinții, pentru că nu și-au supravegheat copiii?
Un sondaj realizat de Common Sense Media în acest an a arătat că 72% dintre adolescenții americani au încercat companioni de inteligență artificială și că unul din trei i-a folosit pentru interacțiuni sociale sau relații.
Dacă instrumentele OpenAI gestionează săptămânal peste un milion de conversații cu tentă suicidară și ultimul său model este conform în proporție de 91% cu comportamentele dorite, chiar și o rată de eșec de o singură cifră implică un risc uimitor. Nu fiecare eroare produce daune, dar la scara actuală, riscurile sunt intolerabil de mari.
În timp ce ASH era o platformă descentralizată de comunicare între utilizatori, protejată – chiar dacă într-un mod nesigur – de Primul Amendament, ChatGPT este centralizată și comercială.
Cadrul etic se schimbă de la „Ce discursuri ar trebui permise?” la „Ce standarde de siguranță trebuie să îndeplinească un produs destinat pieței de masă?”.
Compania OpenAI a anunțat recent că peste un milion de persoane discută săptămânal cu ChatGPT despre sinucidere