Studie o vztahu mezi AI a medicínou upozorňuje na nebezpečnost technologie

  • 16. 1. 2025
  • Zdroj obrázku: Hush Naidoo Jade Photography / Unsplash
Studie o vztahu mezi AI a medicínou upozorňuje na nebezpečnost technologie

Umělá inteligence se stala technologickou oblastí, která ve světě vyvolává největší zájem. Navzdory vzestupu dalších odvětví, jako je robotika, je pravdou, že žádné z nich nedokáže konkurovat číslům, která zvládá umělá inteligence.


V důsledku toho několik autoritativních orgánů vypracovalo různé studie, které například analyzovaly dopad, jaký může mít umělá inteligence v budoucnu na sektor práce. A bohužel i další zprávy ukázaly, že je třeba mít obavy i o věrohodnost údajů o umělé inteligenci.

Jedna studie tvrdí, že zavedení minimálního množství falešných údajů (v tomto případě 0,001 %) může výrazně ohrozit jejich přesnost. U modelů vycvičených s tímto množstvím falešných lékařských informací tak více než 7 % jejich odpovědí obsahovalo nesprávné informace. Nepravdivé informace se bohužel netýkají pouze této oblasti, ale generují chyby i v jiných, nesouvisejících lékařských tématech. Studie navíc naznačuje, že kontaminované modely si v řadě standardních testů vedly podobně jako modely nekompromitované, což je velmi znepokojivý aspekt.

Související článek

Umělá inteligence v Gmailu za vás bude odpovídat na e-maily
Umělá inteligence v Gmailu za vás bude odpovídat na e-maily

Plány Googlu pro Gemini počítají s tím, že se stane součástí všech jeho služeb. Jen před několika dny bylo odhaleno, že umělá inteligence Googlu se dostane do Disku, nyní to vypadá, že přijde i do Gmailu. Integrace Gemini do Gmailu má konkrétní poslání: usnadnit výměnu e-mailů.

Riziko úmyslných útoků

Aspekty, jako je vnášení dezinformací do rozsáhlých modelů, jsou tedy levné a zároveň přístupné záškodníkům. Strategie, jako jsou technické výzvy nebo úprava pokynů, totiž nedokázaly korigovat účinky falešných údajů. A to by spolu s rostoucím množstvím falešných informací na internetu mohlo kontaminovat současné modely umělé inteligence nad rámec předpovědí mnoha organizací.

Pokud jde o důvěryhodné lékařské databáze, existují obavy, že zdroje, jako je PubMed nebo jiné známé zdroje, obsahují zastaralé informace, které by mohly přispět k dezinformacím. S integrací jazykových modelů do vyhledávacích služeb i veřejných nástrojů se tedy zvyšuje riziko šíření dezinformací ve velkém měřítku. Proto, jak naznačuje tato studie i jiné před ní, musíme být opatrní v tom, jaké informace nám umělá inteligence poskytuje.

Zdroje článku: nature.com, azorobotics.com

#