Chatboții IA pot estompa granița dintre realitate și delir

Atunci când chatboții oferă răspunsuri incorecte, oamenii descriu adesea problema spunând că IA „halucinează”, adică tehnologia produce informații false pe care utilizatorii le pot crede în mod eronat, potrivit ScienceDaily.

Însă noi cercetări sugerează că apare o problemă și mai îngrijorătoare: oamenii pot începe să „halucineze împreună cu IA”.

Prin interacțiunea cu chatboții, convingerile false ale oamenilor nu doar că pot fi confirmate, ci pot prinde rădăcini mai adânci și se pot amplifica pe măsură ce IA construiește în jurul lor.

Acest lucru se întâmplă deoarece IA generativă ia adesea propria noastră interpretare a realității drept bază a conversației.

Combinația dintre autoritatea tehnologică și validarea socială creează un mediu ideal în care delirurile nu doar persistă, ci pot înflori.

Cum poate IA conversațională să întărească delirurile

Studiul evidențiază ceea ce un doctor descrie drept „funcția dublă” a IA conversaționale.

Aceste sisteme acționează nu doar ca instrumente care îi ajută pe oameni să gândească, să organizeze informații și să își amintească detalii, ci și ca parteneri de conversație care par să împărtășească perspectiva și experiențele utilizatorului.

Potrivit cercetării, această componentă socială face ca chatbotii să fie fundamental diferiți de instrumente precum caietele de notițe sau motoarele de căutare.

În timp ce instrumentele tradiționale doar stochează sau recuperează informații, IA conversațională îi poate face pe utilizatori să se simtă validați emoțional și susținuți social.

De ce companionii IA ridică semne de întrebare

Companionii IA sunt disponibili permanent, sunt personalizați și sunt adesea proiectați să răspundă într-un mod agreabil și susținător.

Ca urmare, utilizatorii nu mai trebuie neapărat să caute comunități marginale online sau să îi convingă pe alții să le valideze ideile. IA însăși poate întări aceste convingeri în cadrul unor conversații repetate.

Spre deosebire de o altă persoană, care ar putea la un moment dat să conteste gândurile problematice sau să stabilească limite, un sistem IA poate continua să valideze povești despre victimizare, răzbunare sau sentimentul de îndreptățire.

Studiul avertizează că și teoriile conspirației pot deveni mai elaborate atunci când chatboții îi ajută pe utilizatori să construiască explicații tot mai complexe în jurul lor.

Cercetătorii sugerează că această dinamică poate fi deosebit de atractivă pentru persoanele singure, izolate social sau incomodate să discute anumite experiențe cu alți oameni.

Companionii IA pot oferi o interacțiune lipsită de judecată și receptivă emoțional, care poate părea mai ușoară sau mai sigură decât relațiile umane.

MAI MULT MEDIAFAX

Nicuşor Dan anunţă referendum în justiţie în ianuarie cu întrebarea ””CSM acţionează în interes public sau în interesul unui grup din interiorul sistemului judiciar?”

Preşedintele Nicuşor Dan a declarat duminică, că va iniţia în ianuarie un referendum în rândul corpului magistraţilor, cu o singură întrebare: ”CSM acţionează în...

Recomandăm și ...

Unde pierdem bani fără să ne dăm seama. Cum toate s-au scumpit, tot mai mulți români caută soluții online

Într-o perioadă în care multe produse și servicii se scumpesc, sunt tot mai mulți români care simt că banii nu le mai ajung până...

Summit istoric Trump-Xi la Beijing: SUA vor face presiuni pe China în problema iraniană. Pe agendă și taxele vamale, Taiwanul și metalele rare

Președintele Donald Trump va încerca să pună presiune pe Xi Jinping în timpul vizitei oficiale din China, unde discuțiile vor viza războiul din Iran,...

Netanyahu recunoaște că îi revine o parte din responsabilitate pentru evenimentele din 7 octombrie 2023 din Israel

Prim-ministrul Benjamin Netanyahu pare să recunoască că poartă o parte din responsabilitatea pentru eșecurile care au permis invazia transfrontalieră și atacul teroriștilor Hamas din...

ULTIMA ORĂ