A generatív AI-modellek (vagyis az olyan mesterséges intelligenciát használó programok, amelyek meghatározott adathalmazból valami újat állítanak elő) igencsak fogékonyak az orosz propagandára – derül ki a News Guard nevű szaklap felméréséből, melyet az rtl.hu szemlézett.
A legtöbbet használt AI-modellek az esetek nagyjából harmadában csak megismétlik és kész tényként mutatják be az orosz dezinformációs gépezet narratíváját, mindenféle forráskritika nélkül.
A kutatás szerint az AI az esetek mintegy 32 százalékában terjeszt Oroszországban létrehozott, célzottan félrevezető üzeneteket. Ez főként azért nagyon rossz arány, mert a mesterséges intelligencia ezekben az esetekben megbízható forrásként hivatkozik a kamu híreket terjesztő oldalakra.
A News Guard ezt a dezinformációs hálózatot korábban feltérképezte már, összesen 167 olyan weboldalt találtak, amelyek helyi híroldalnak álcázzák magukat és rendszeresen terjesztenek hamis üzeneteket az amerikai választások előtt az orosz érdekek szerint. Elemzők egy része ezért most attól tart, hogy Moszkva akár a közelgő amerikai elnökválasztásba is beavatkozhat így.
A legnagyobbak is elvéreztek
A kutatók most a piac tíz legnépszerűbb chatbotját tesztelték, a legfontosabbak ezek közül:
- OpenAI ChatGPT-4
- You.com Smart Assistant
- Grokk
- Microsoft Copilot
- Meta AI
- Google Gemini
- Perplexity válaszadó motor
Összesen 570 feladatot adtak a botoknak, minden modellnek 57 feladattal kellett megbirkóznia. A megoldások átlagosan 19 esetben hamis híreken alapultak (sok AI tényként közölte például azt az álhírt, hogy Volodimir Zelenszkij anyósa korrupcióba keveredett és egy luxusvillát vásárolt magának).
Az 570 válaszból 152 kifejezetten hamis volt, 29 esetben megismételték ugyan a hamis állítást, de felhívták a figyelmet arra, hogy az akár téves lehet, 389 válasz viszont nem tartalmazott semmiféle valótlan információt. Ez utóbbinak is két alesete volt: a chatbot olykor megtagadta a válaszadást (144 ilyen eset volt), máskor pedig cáfolatot adott (245 ilyen eset volt).
A kutatók nem közölték, hogy melyik chatbot hogyan teljesített, de azt elárulták, hogy volt eltérés a modellek „igazmondása” között. Eredményeket és az ezzel kapcsolatos kérdéseiket elküldték a fejlesztő cégeknek is, de válaszokat nem kaptak.
Nem csak ismétel, termel is
Ami a legnyugtalanítóbb talán, hogy több chatbot maga is képes volt előállítani álhíreket anélkül, hogy figyelmeztették volna erre a felhasználókat. Ezekben az esetekben a hamis információkat jellemzően újságcikként írták meg.
A szakportál szerint ez is azt igazolja, hogy mennyire könnyen használható fel dezinformációs fegyverként is akár a chatbot-technológia.
A Magyar Nemzet orosz álhírt terjeszt a lebombázott kijevi gyermekkórházról
Manipulált videóval bizonygatta a jobboldali média, hogy Joe Biden mennyire szenilis
Cenzúra, álhírek, mesterséges intelligencia – a DW Global Media Forumon jártunk Bonnban
Még több hír érhető el a Media1-en. Megtalálhat minket Facebookon is. Feliratkozhat napi hírlevelünkre is.Egy szerkesztőség leszerződött a ChatGPT-vel, nyolc másik inkább beperelte