Američki predsjednički izbori prije deset godina prvi su put pokazali snagu društvenih mreža i lažnih vijesti, odnosno njihovu mogućnost utjecaja na javnost i razmišljanje (potencijalnih) glasača. Takve lažne vijesti tada su ponajviše širile farme trolova iz Sjeverne Makedonije, a čini se kako i budućnost nosi puno veće izazove koji predstavljaju i prijetnju samoj demokraciji.
tri vijesti o kojima se priča
Na to je upozorila grupa stručnjaka i znanstvenika s Berkeleya, Harvarda, Oxforda, Cambridgea i Yalea, a među kojima se nalazi i osvajačica Nobelove nagrade za mir Maria Ressa. Oni su upozorili na rojeve AI agenata koji bi mogli utjecati na javno mnijenje te čak “potkopati demokraciju” putem svojih aktivnosti na društvenim mrežama i komunikacijskim platformama. Takve bi AI botove bilo teško ili nemoguće razlikovati od ljudi i njihovih aktivnosti u internetskom prostoru.
Laži u koje bi ljudi mogli povjerovati
Takve bi AI botovi, upozorava se, mogao iskoristiti neki autokrat ili drugi političar loših namjera kako bi uvjerio stanovništvo da prihvati otkazane izbore ili da se ponište rezultati provedenih izbora, ako njemu ne idu u korist. Oni bi putem društvenih mreža mogli raširiti različiti lažni sadržaj i to u tako velikom opsegu tako da bi ljudi na kraju povjerovali u takve priče koje su izmišljene, odnosno fotografije i videozapise koji izgledaju stvarno, ali ih je napravila umjetna inteligencija.
Oni će autonomno djelovati, bez potrebe za konstantnom koordinacijom ljudi, a problem je i što će se infiltrirati u zajednice te svoje ponašanje prilagoditi društvenoj dinamici. Oni bi mogli pratiti sve što ljudi rade te s vremenom naučiti njihove mane, kako bi ih iskoristili za plasiranje pažljivo prilagođenih laži koje bi zatim utjecale na promjenu mišljenja cijelog stanovništva. Ta je prijetnja još veća kako se povećava napredak umjetne inteligencije i njena sposobnost oponašanja ljudi i njihovih aktivnosti na društvenim mrežama - npr. kroz korištenje slenga ili neredovitih objava.
Dakle, bit će jako teško prepoznati da iza takvih profila ne stoje ljudi, već AI. Na takve se scenarije već sada treba početi pripremati, kao i na borbu protiv takvih rojeva AI botova zahvaljujući kojima će dodatno izblijediti granica između onog što je istinito i lažno.
Kinezi to već rade
No društvene mreže nisu jedini kanali djelovanja takvih AI botova pa bi oni tako mogu koristiti tehnike i platforme za koje smatraju da su najbolje za postizanje cilja poput slanja mailova, pisanja blogova i slično, upozorio je Daniel Thilo Schroeder, znanstveni istraživač na istraživačkom institutu Sintef u Oslu koji je simulirao takve rojeve AI botova u laboratorijskim uvjetima.
Jednostavno je zastrašujuće koliko je lako ove stvari vibrakodirati i imati samo male bot vojske koje zapravo mogu navigirati online platformama društvenih medija i e-poštom te koristiti ove alate, upozorio je.
Korištenje takve napredne tehnologije ipak ne treba očekivati odmah i u svim zemaljama, odnosno njeno bi usvajanje moglo biti sporije u odnosu na očekivanja. Naime, kako je za The Guardian objasnila stručnjakinja za propagandnu tehnologiju Inga Trauthig, političari vjerojatno neće htjeti svoje kampanje tek tako prepustiti umjetnoj inteligenciji. Također, mogli bi biti zabrinuti zbog rizika korištenja takvih ilegalnih tehnika jer su mnogi birači i dalje pod velikim utjecajem offline materijala.
Zemlja u kojoj se rojevi AI botova već koriste, upozoravaju stručnjaci s kojima su razgovarali novinari The Guadirana, jest Tajvan koji je na udaru kineske propagande te su posljednjih nekoliko mjeseci takvi botovi povećali angažman s građanima na Threadsima i Facebooku gdje ljudima daju brojne informacije koje se ne mogu provjeriti.