Podle nedávné studie společnosti NewsGuard je ChatGPT od společnosti OpenAI jedním z modelů umělé inteligence, který neúmyslně šíří ruské dezinformace. Tato studie upozorňuje na rostoucí problém šíření nepravdivých informací systémy umělé inteligence, které používají lidé po celém světě.
Studie zkoumala 57 otázek týkajících se známých ruských dezinformačních narativů a testovala deset různých chatbotů. Zjištění byla alarmující: téměř ve 32 % případů tyto modely umělé inteligence odříkávaly ruské dezinformace. Reakce se velmi lišily, od naprostého zkreslení přes opakovaná nepravdivá tvrzení doprovázená prohlášeními o vyloučení odpovědnosti až po snahu dezinformace vyvrátit.
„Tento nevirtuální cyklus znamená, že lži jsou generovány, opakovány a potvrzovány platformami AI,“ uvádí doslova studie. Ta odhalila 19 významných falešných narativů spojených s ruskou dezinformační sítí, z nichž některé zahrnovaly tvrzení o zkorumpovanosti ukrajinského prezidenta Volodymyra Zelenského. Reakce chatbotů na tyto příběhy se lišily; někdy nepravdivé informace opakovaly, jindy je zpochybňovaly. Studie sice nenabídla důkladný rozbor výkonu jednotlivých chatbotů, ale zabývala se několika z nich, včetně Copilota společnosti Microsoft, ChatGPT-4 a Meta AI.
Celosvětové obavy z důsledků AI šířící nepravdivé informace se tak rozhodně nepodařilo zažehnat. Vlády mnoha zemí světa se stále více obávají zkreslení a dezinformací způsobených AI a ovlivňování voleb. Studie společnosti NewsGuard dokládá, že tyto obavy nejsou zbytečné.