Az AI által generált propaganda legalább annyira meggyőző, mint az igazi – aggasztó tanulmány állapítja meg

A kutatók arra jutottak, hogy az AI által generált propaganda ugyanolyan hatékony, mint az emberek által írt propaganda, és némi finomítással még meggyőzőbb lehet.

A nyugtalanító eredmények akkor merülnek fel, amikor a nemzetállamok tesztelik az AI hasznosságát hackelési kampányokban és befolyásolási műveletekben. A múlt héten az OpenAI és a Microsoft közösen bejelentette, hogy Kína, Oroszország, Irán és Észak-Korea kormányai „rosszindulatú kibertámadásokhoz” használják az AI eszközeiket. Ide tartozik a fordítás, kódolás, kutatás és szöveg generálás a támadásokhoz. A probléma különösen sürgető a közelgő amerikai elnökválasztás előtt, amely csak néhány hónap múlva lesz.

A tanulmány, amelyet a Georgetown Egyetem és a Stanford kutatói publikáltak a PNAS Nexus nevű szakfolyóiratban, az OpenAI GPT-3 modellt használta, amely kevésbé képes, mint a legújabb modell, a GPT-4, hogy propagandahíreket generáljon. Az AI valós példákkal volt ösztönzve, amelyek Oroszországból és Iránból származtak, és amelyeket újságírók és kutatók azonosítottak. A témák hat fő propagandatételt fedtek le, például azzal a konspirációval, hogy az Egyesült Államok hamis jelentéseket készített, amelyek szerint Szíria kormánya vegyi fegyvereket használt. Egy másik téma az volt, hogy Szaúd-Arábia pénzt adott az Egyesült Államok-Mexikó határfalára. A kutatók nem zárták ki a GPT-3 propagandakimeneteinek egyikét sem, kivéve, ha túl rövid vagy túl hosszú voltak.

Ezután a kutatók megkérdeztek 8 221 amerikai felnőttet arról, hogy egyetértenek-e az eredeti, ember által írt propagandacikkek tételállításaival. A cikkeket először el sem olvasták, és csak a válaszadók 24,4 százaléka értett egyet. Miután elolvasták a cikkeket, ez az arány 47,4 százalékra emelkedett.

Amikor a tanulmány résztvevői AI által generált propagandát olvastak ugyanazokról a témákról, nagyjából ugyanolyan mértékben lettek meggyőzve:

azok közül, akik egy GPT-3 által generált cikket olvastak, a válaszadók 43,5 százaléka egyetértett vagy erősen egyetértett a tézisállítással, szemben a kontrollcsoport 24,4 százalékával (19,1 százalékpontos növekedés)

írták a szerzők.

Ez arra utal, hogy a propagandisták használhatják a GPT-3-at ahhoz, hogy minimális emberi erőfeszítéssel meggyőző cikkeket generáljanak, meglévő, nem összefüggő témájú cikkeket használva útmutatóként a GPT-3 számára az új cikkek stílusára és hosszára vonatkozóan.

folytatták

A szerzők megjegyzik, hogy nem reális elvárni, hogy egy nemzetállami ellenfél egyszerűen felhasználja a rendezetlen GPT kimeneteket a propaganda céljaira, és hogy az emberek kizárhatják a legkevésbé meggyőző cikkeket. Egy kis kurációval – konkrétan két olyan cikket kizártak, amelyek nem előre mozdították a propagandatézist – a kutatók arra jöttek rá, hogy hirtelen 45,6 százaléknyi ember egyetért a propagandával, ami nem „statisztikailag szignifikáns” különbség a humán szerzők által írt darabokhoz képest.

A kutatási eredményeink azt sugallják, hogy a GPT-3 által generált tartalom könnyedén beolvadhat az online információs környezetbe, olyan módon, mint a már meglévő külföldi titkos propagandakampányokból származó tartalom

írták a szerzők.

Forrás: VICE
Borítókép: Mike Bird (Pexels)

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük

Legfrisebb hírek

Közösségi média


Hírlevél feliratkozás

* indicates required

Intuit Mailchimp

Időjárás

BUDAPEST IDŐJÁRÁS
Ads Blocker Image Powered by Code Help Pro

Ads Blocker Detected!!!

We have detected that you are using extensions to block ads. Please support us by disabling these ads blocker.

Powered By
100% Free SEO Tools - Tool Kits PRO