Umělá inteligence se stala technologickou oblastí, která ve světě vyvolává největší zájem. Navzdory vzestupu dalších odvětví, jako je robotika, je pravdou, že žádné z nich nedokáže konkurovat číslům, která zvládá umělá inteligence.
V důsledku toho několik autoritativních orgánů vypracovalo různé studie, které například analyzovaly dopad, jaký může mít umělá inteligence v budoucnu na sektor práce. A bohužel i další zprávy ukázaly, že je třeba mít obavy i o věrohodnost údajů o umělé inteligenci.
Jedna studie tvrdí, že zavedení minimálního množství falešných údajů (v tomto případě 0,001 %) může výrazně ohrozit jejich přesnost. U modelů vycvičených s tímto množstvím falešných lékařských informací tak více než 7 % jejich odpovědí obsahovalo nesprávné informace. Nepravdivé informace se bohužel netýkají pouze této oblasti, ale generují chyby i v jiných, nesouvisejících lékařských tématech. Studie navíc naznačuje, že kontaminované modely si v řadě standardních testů vedly podobně jako modely nekompromitované, což je velmi znepokojivý aspekt.
Riziko úmyslných útoků
Aspekty, jako je vnášení dezinformací do rozsáhlých modelů, jsou tedy levné a zároveň přístupné záškodníkům. Strategie, jako jsou technické výzvy nebo úprava pokynů, totiž nedokázaly korigovat účinky falešných údajů. A to by spolu s rostoucím množstvím falešných informací na internetu mohlo kontaminovat současné modely umělé inteligence nad rámec předpovědí mnoha organizací.
Pokud jde o důvěryhodné lékařské databáze, existují obavy, že zdroje, jako je PubMed nebo jiné známé zdroje, obsahují zastaralé informace, které by mohly přispět k dezinformacím. S integrací jazykových modelů do vyhledávacích služeb i veřejných nástrojů se tedy zvyšuje riziko šíření dezinformací ve velkém měřítku. Proto, jak naznačuje tato studie i jiné před ní, musíme být opatrní v tom, jaké informace nám umělá inteligence poskytuje.