Oroszországi dezinformáció A kampány kihasználja a fogyasztói mesterséges intelligencia eszközöket, amelyek a globális választások, Ukrajna és a bevándorlás körüli meglévő feszültségek súlyosbítására összpontosítanak, többek között az ellentmondásos kérdések. A múlt héten közzétett új kutatás–
A kampány, amelyet sok névnek neveznek, beleértve Üzemeltetési túlterhelés és Matryoshka (más kutatók is összekapcsolták azt Vihar-1679), 2023 óta működik, és több csoport, különösen az orosz kormányhoz igazodott Mikrosoft És a Stratégiai párbeszéd intézete– A kampány a hamis történetek miatt diffundál azáltal, hogy a média személyazonosságát bántalmazza azzal a nyilvánvaló céllal, hogy a divíziót demokratikus országokban vethesse. Míg a kampány a világ nyilvánosságát célozza, beleértve az Egyesült ÁllamokbanFő célpontja Ukrajna volt. A vidéki AI által kezelt videók százai megpróbálták ösztönözni az oroszországi történeteket.
A jelentés elmagyarázza, hogy 2024. szeptember és 2025. május között a kampányt működtetők által előállított tartalom mennyisége jelentősen megnőtt, és több millió nézetet kap világszerte.
Jelentésükben a kutatók 230 egyedi tartalmat azonosítottak, amelyeket a kampány 2023. július és 2024. június között népszerűsített, beleértve képeket, videókat, QR -kódokat és hamis webhelyeket. Az elmúlt nyolc hónapban azonban a művelet túlterhelése összesen 587 rész egyedi tartalmat készített, ezek többségét AI eszközökkel hozták létre – mondta a kutatók.
A kutatók szerint a tartalom csúcsát a fogyasztói minőségű AI eszközök motiválták, amelyek ingyenesen rendelkezésre állnak. Ez az egyszerű hozzáférés hozzájárult a “tartalomfúziós” kampány taktikájának táplálásához, ahol az AI eszközöknek köszönhetően több tartalmi rész előállítása képes volt előállítani, hogy ugyanazt a történetet tükrözzék.
“Ez azt jelzi, hogy a skálázhatóbb, többnyelvű és egyre kifinomultabb propaganda taktikák” -írta a Reset Tech Researchers, a londoni székhelyű nonprofit szervezet, amely a dezinformációs kampányokat követi, és először ellenőrzi a finn szoftvercéget, írta a jelentésben. “A kampány az elmúlt nyolc hónapban jelentősen megnövelte az új tartalom előállítását, jelezve a gyorsabb és skálázhatóbb tartalom -létrehozási módszerek változását.”
A kutatókat is lenyűgözte az eszközök és a tartalom típusai is, amelyeket a kampány folytatott. “Ami meglepte, hogy a tartalom sokfélesége, a különféle tartalmak, amelyeket elkezdtek használni” – mondta Wireds Wired Aleksandra Atanasova, a Reset Tech Intelligence kutató vezetője. “Úgy tűnik, mintha diverzifikálták volna a palettájukat, hogy annyi különböző szöget érjenek el ezeknek a történeteknek. Átfedésben vannak a különféle tartalmak, egymás után.”
Atanasova hozzátette, hogy a kampány nem úgy tűnik, hogy nem személyre szabott AI eszközöket használ céljaik eléréséhez, hanem a hang- és képek generátorait és képeit használták, amelyeket mindenki számára elérhető.
Noha nehéz azonosítani az összes eszközt, amelyet a kampánytáblák használtak, a kutatók képesek voltak zsugorodni egy adott eszközben: AI Flow.
A Flux AI egy szöveges generátor a Black Forest Labs által kifejlesztett képen, egy németországi székhelyű társaság, amelyet az AI volt stabilitási alkalmazottak alapítottak. A SightEngine Image Analysis eszköz segítségével a kutatók 99% -os valószínűséggel találták meg a túlterhelés kampány által megosztott bizonyos számú hamis képet, amelyek közül néhány azt állította, hogy a muszlim bevándorlók zavargásait mutatják be Berlinben és Párizsban – az AI -áramlásokból származó képek generációja felhasználásával jöttek létre.