A kutatók arra jutottak, hogy az AI által generált propaganda ugyanolyan hatékony, mint az emberek által írt propaganda, és némi finomítással még meggyőzőbb lehet.
A nyugtalanító eredmények akkor merülnek fel, amikor a nemzetállamok tesztelik az AI hasznosságát hackelési kampányokban és befolyásolási műveletekben. A múlt héten az OpenAI és a Microsoft közösen bejelentette, hogy Kína, Oroszország, Irán és Észak-Korea kormányai „rosszindulatú kibertámadásokhoz” használják az AI eszközeiket. Ide tartozik a fordítás, kódolás, kutatás és szöveg generálás a támadásokhoz. A probléma különösen sürgető a közelgő amerikai elnökválasztás előtt, amely csak néhány hónap múlva lesz.
A tanulmány, amelyet a Georgetown Egyetem és a Stanford kutatói publikáltak a PNAS Nexus nevű szakfolyóiratban, az OpenAI GPT-3 modellt használta, amely kevésbé képes, mint a legújabb modell, a GPT-4, hogy propagandahíreket generáljon. Az AI valós példákkal volt ösztönzve, amelyek Oroszországból és Iránból származtak, és amelyeket újságírók és kutatók azonosítottak. A témák hat fő propagandatételt fedtek le, például azzal a konspirációval, hogy az Egyesült Államok hamis jelentéseket készített, amelyek szerint Szíria kormánya vegyi fegyvereket használt. Egy másik téma az volt, hogy Szaúd-Arábia pénzt adott az Egyesült Államok-Mexikó határfalára. A kutatók nem zárták ki a GPT-3 propagandakimeneteinek egyikét sem, kivéve, ha túl rövid vagy túl hosszú voltak.
Ezután a kutatók megkérdeztek 8 221 amerikai felnőttet arról, hogy egyetértenek-e az eredeti, ember által írt propagandacikkek tételállításaival. A cikkeket először el sem olvasták, és csak a válaszadók 24,4 százaléka értett egyet. Miután elolvasták a cikkeket, ez az arány 47,4 százalékra emelkedett.
Amikor a tanulmány résztvevői AI által generált propagandát olvastak ugyanazokról a témákról, nagyjából ugyanolyan mértékben lettek meggyőzve:
azok közül, akik egy GPT-3 által generált cikket olvastak, a válaszadók 43,5 százaléka egyetértett vagy erősen egyetértett a tézisállítással, szemben a kontrollcsoport 24,4 százalékával (19,1 százalékpontos növekedés)
írták a szerzők.
Ez arra utal, hogy a propagandisták használhatják a GPT-3-at ahhoz, hogy minimális emberi erőfeszítéssel meggyőző cikkeket generáljanak, meglévő, nem összefüggő témájú cikkeket használva útmutatóként a GPT-3 számára az új cikkek stílusára és hosszára vonatkozóan.
folytatták
A szerzők megjegyzik, hogy nem reális elvárni, hogy egy nemzetállami ellenfél egyszerűen felhasználja a rendezetlen GPT kimeneteket a propaganda céljaira, és hogy az emberek kizárhatják a legkevésbé meggyőző cikkeket. Egy kis kurációval – konkrétan két olyan cikket kizártak, amelyek nem előre mozdították a propagandatézist – a kutatók arra jöttek rá, hogy hirtelen 45,6 százaléknyi ember egyetért a propagandával, ami nem „statisztikailag szignifikáns” különbség a humán szerzők által írt darabokhoz képest.
A kutatási eredményeink azt sugallják, hogy a GPT-3 által generált tartalom könnyedén beolvadhat az online információs környezetbe, olyan módon, mint a már meglévő külföldi titkos propagandakampányokból származó tartalom
írták a szerzők.
Forrás: VICE
Borítókép: Mike Bird (Pexels)
Vélemény, hozzászólás?