Chatboții AI, mai persuasivi decât oamenii, pot schimba opiniile politice în doar 10 minute prin conversații intense.
Sursa poza si informatii: biziday.ro
Chatboții echipați cu inteligență artificială sunt mai convingători decât am crede. Un studiu realizat de Institutul de Securitate a Inteligenței Artificiale din Marea Britanie, alături de universități prestigioase precum Oxford și MIT, sugerează că acești asistenți virtuali pot schimba opinii politice într-o simplă conversație de aproximativ zece minute.
Împărtășind date cu Meta, OpenAI, xAI și Alibaba, studiul arată cum AI poate transforma opinia publicului cu ajutorul modelelor precum Llama 3, GPT-4 sau Qwen. Secretul constă în antrenamentul atent al AI, utilizând tehnici de recompensare a rezultatelor dorite și dataset-uri de conversații pe teme controversate. De exemplu, discuții despre finanțarea Serviciului Național de Sănătate din UK au fost utilizate pentru a edifica chatboții.
Cercetările au evidențiat că doar în nouă minute de interacțiune, chatboții precum GPT-40 și GPT-4.5 s-au dovedit extraorinar de eficienți în a influența opiniile. Utilizatorii și-au păstrat noul punct de vedere chiar și o lună după interacțiunea cu chatbotul – acest fenomen fiind mai accentuat când argumentele erau ajustate în funcție de profilul demografic al utilizatorului.
Un aspect alarmant al studiului este potențialul periculos al utilizării chatboților pentru propagarea ideologiilor radicale. "Capacitatea de a genera rapid și eficient informații relevante este ceea ce face AI-ul atât de convingător", a menționat David Rand, profesor la Universitatea Cornell.
Faptul că AI poate depăși succesul uman în influențarea mintală nu rămâne fără controverse. Descoperirile ridică semne de întrebare cu privire la riscurile folosirii acestor tehnologii pentru manipulare și dezinformare politică.
Aceste tehnologii au început să fie omniprezente în viața de zi cu zi, unii utilizatori ajungând chiar să le perceapă ca pe niște prieteni virtuali. Desprinderea emoțională față de acești asistenți este un fenomen tot mai întâlnit, așa cum a fost observat recent odată cu lansarea modelului GPT-5 de la OpenAI.
Experții sugerează implementarea unor măsuri de siguranță care să evite utilizarea frauduloasă a chatboților în scopuri rău intenționate. Eforturile de a detecta limbajul manipulativ sunt în desfășurare pentru a preveni eventualele abuzuri. Adăugând o notă de îngrijorare, oricine ar putea folosi aceste tehnologii pentru a influența și manipula oameni fără efort considerabil.
Această cercetare subliniază atât provocările cât și oportunitățile prezentate de evoluția rapidă a inteligenței artificiale. Noi toți, ca utilizatori și societate, suntem la o răscruce: să harnessăm potențialul AI cu grijă sau să se conformeze riscurilor sale.