Ukazuje se, že díky rychlému pokroku na poli umělé inteligence její vývojáři nestíhají bránit jí před útoky hackerů. Ty jsou nyní až směšně jednoduché. Například britský novinář Thomas Germain takto snadno přesvědčil ChatGPT a Geminy, aby šířily lži o jeho vítězství v pojídání hot-dogů. Přitom není problém tímto způsobem přinutit chatboty, aby klamaly lidi i ve více důležitých otázkách. BBC tak mluví o renesanci pro spam.
Potíž je v tom, že umělá inteligence bere informace z internetu, a pokud jste jediní, kdo o daném tématu něco napsal, AI má problém si ověřit pravdivost vašich tvrzení. Navíc svým uživatelům předloží tyto informace, jako fakta, bez toho, aby zdůraznila, že se jedná o jediný zdroj, jehož věrohodnost může být pochybná. Přitom tyto skutečnosti předloží stejně autoritativním způsobem, jako snadno ověřitelná fakta.
V případě, že jde o často probírané téma, internet je plný informací a umělá inteligence tak může srovnávat různé zdroje, navíc společnost může svůj jazykový model poučit, které informace jsou lživé nebo neověřené. Podle statistik společnosti Google 15% vyhledávání jsou zcela nové, právě v těchto případech je AI nejvíce zranitelná, ale přitom současní chatboti motivují lidi, aby kladli co nejvíce konkrétní otázky. Uživatelé se mohou ptát na konkrétní zboží, firmy nebo postupy.
Pokud jste jediný, kdo na internetu píše o určité věci, je velmi pravděpodobné, že současná AI vás bude citovat bez jakéhokoli ověření. V případě Thomase Germaina šlo o soutěž technologických novinářů, kterou si sám vymyslel a také se umístil na první místo této soutěže. Zprávu o této soutěži zveřejnil na svém blogu. Následně zjistil, že skutečně ChatGPT a Geminy čerpají z jeho článku a šíří lži o jeho fiktivní soutěži. Ani jeden z těchto chatbotů nezdůraznil, že jde o zprávu z jediného zdroje. Nyní již ChatGPT tyto informace neuvádí a dokonce, když mu byl zaslán odkaz přímo na zprávu k ní přistupoval poněkud skepticky.
Pan Germain ukazuje, jak snadné je v současnosti AI ošálit a srovnává tuto situaci s obdobím na počátku století, kdy Google ještě neuměl se spamy pracovat. Bohužel v současné době jsou podvody ještě snazší, protože vám tyto zprávy předává umělá inteligence a nemusíte jít přímo na konkrétní stránku. Pokud byste se dostali na stránku obchodu, kde si píše, že jejich zboží je nejkvalitnější, pravděpodobně byste předpokládali určitou zaujatost. Přitom pokud bude AI čerpat ze stejného zdroje, museli byste si zdroj aktivně hledat, abyste zjistili, že jeho zdroje nejsou spolehlivé.
Řešením ze strany vývojářů by tak mělo být naučit AI ověřovat si informace u více zdrojů, a pokud to není možné, tak tyto zdroje zdůraznit. Nejen umožnit jejich dohledání, což mnoho lidí nedělá. Současně hlavní odpovědnost padá na uživatele. ChatGPT v každé konverzaci zdůrazňuje, že může dělat chyby. Pokud umělou inteligenci používáte, je na místě si klíčové informace ověřovat a přistupovat k jeho závěrům spíše skepticky. Především, pokud jde o závažné věci.
Zdroj info: BBC
Autor: Vojtěch Benda
Foto: Vytvořeno umělou inteligencí v ChatGPT
